Dies ist die Linux-App namens xFormers, deren neueste Version als v0.0.33.post1sourcecode.tar.gz heruntergeladen werden kann. Sie kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App namens xFormers mit OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie den OnWorks Linux-Online- oder Windows-Online-Emulator oder den MACOS-Online-Emulator von dieser Website.
- 5. Rufen Sie vom gerade gestarteten OnWorks Linux-Betriebssystem aus unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter, installieren Sie sie und führen Sie sie aus.
SCREENSHOTS
Ad
xFormers
BESCHREIBUNG
xformers ist eine modulare, leistungsorientierte Bibliothek von Transformer-Bausteinen, die es Forschern und Ingenieuren ermöglicht, Transformer-Architekturen flexibler zu erstellen, zu experimentieren und zu optimieren als mit monolithischen Frameworks. xformers abstrahiert Komponenten wie Aufmerksamkeitsebenen, Feedforward-Module, Normalisierung und Positionskodierung, sodass Sie optimierte Kernel einfach kombinieren oder austauschen können. Eines der Hauptziele ist effiziente Aufmerksamkeit: xformers unterstützt dichte, spärliche, niedrigrangige und ungefähre Aufmerksamkeitsmechanismen (z. B. FlashAttention, Linformer, Performer) über austauschbare Module. Die Bibliothek enthält speichereffiziente Operatorimplementierungen in Python und optimiertem C++/CUDA, sodass die Leistung nicht der Modularität geopfert wird. xformers lässt sich außerdem nahtlos in PyTorch integrieren, sodass Sie Blöcke in bestehende Modelle einfügen, Standard-Aufmerksamkeitsebenen ersetzen oder neue Architekturen von Grund auf neu erstellen können. xformers umfasst Tools für Training, Bereitstellung und Speicherprofilierung.
Eigenschaften
- Modulare Transformatorbausteine (Aufmerksamkeit, FFN, Normen, Positionskodierungen)
- Unterstützung für verschiedene effiziente Aufmerksamkeitstypen (spärlich, ungefähr, Lokalität)
- Optimierte GPU-Kernel und Fallback-Python-Implementierungen
- Nahtlose Integration mit PyTorch-Modellen und Trainingsschleifen
- Profiling- und Benchmarking-Tools zum Vergleich von Durchsatz, Speicher und Latenz
- Unterstützung für das Mischen von Aufmerksamkeitstypen in einem Modell (Hybridarchitekturen)
Programmiersprache
Python
Kategorien
Diese Anwendung kann auch von https://sourceforge.net/projects/xformers.mirror/ heruntergeladen werden. Sie wurde in OnWorks gehostet, um sie auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme aus ausführen zu können.
