Ito ang Linux app na pinangalanang xFormers na ang pinakabagong release ay maaaring ma-download bilang v0.0.33.post1sourcecode.tar.gz. Maaari itong patakbuhin online sa libreng hosting provider na OnWorks para sa mga workstation.
I-download at patakbuhin online ang app na ito na pinangalanang xFormers na may OnWorks nang libre.
Sundin ang mga tagubiling ito upang patakbuhin ang app na ito:
- 1. Na-download ang application na ito sa iyong PC.
- 2. Ipasok sa aming file manager https://www.onworks.net/myfiles.php?username=XXXXX kasama ang username na gusto mo.
- 3. I-upload ang application na ito sa naturang filemanager.
- 4. Simulan ang OnWorks Linux online o Windows online emulator o MACOS online emulator mula sa website na ito.
- 5. Mula sa OnWorks Linux OS na kasisimula mo pa lang, pumunta sa aming file manager https://www.onworks.net/myfiles.php?username=XXXX gamit ang username na gusto mo.
- 6. I-download ang application, i-install ito at patakbuhin ito.
MGA LALAKI
Ad
xMga dating
DESCRIPTION
Ang xformers ay isang modular, performance-oriented na library ng mga transformer building blocks, na idinisenyo upang payagan ang mga mananaliksik at inhinyero na bumuo, mag-eksperimento, at mag-optimize ng mga transformer architecture nang mas flexible kaysa sa mga monolitikong framework. Kinukuha nito ang mga bahagi tulad ng mga layer ng pansin, mga module ng feedforward, normalisasyon, at positional na pag-encode, upang madali mong mapaghalo at itugma o ipagpalit ang mga naka-optimize na kernel. Ang isa sa mga pangunahing layunin nito ay mahusay na atensyon: sinusuportahan nito ang siksik, kalat-kalat, mababang ranggo, at tinatayang mga mekanismo ng atensyon (hal. FlashAttention, Linformer, Performer) sa pamamagitan ng mga mapagpapalit na module. Kasama sa library ang memory-efficient na mga pagpapatupad ng operator sa parehong Python at na-optimize na C++/CUDA, na tinitiyak na ang pagganap ay hindi isinakripisyo para sa modularity. Sumasama rin ito sa PyTorch nang walang putol upang maaari mong ihulog ang mga bloke nito sa mga umiiral nang modelo, palitan ang mga default na layer ng atensyon, o bumuo ng mga bagong arkitektura mula sa simula. Kasama sa xformers ang pagsasanay, pag-deploy, at mga tool sa profile ng memorya.
Mga tampok
- Mga bloke ng gusali ng modular transformer (pansin, FFN, mga pamantayan, pag-encode ng posisyon)
- Suporta para sa iba't ibang uri ng mahusay na atensyon (kaunti, tinatayang, lokalidad)
- Mga na-optimize na GPU kernel at fallback na pagpapatupad ng Python
- Walang putol na pagsasama sa mga modelo ng PyTorch at mga loop ng pagsasanay
- Mga tool sa pag-profile at benchmarking upang ihambing ang throughput, memory, at latency
- Suporta para sa paghahalo ng mga uri ng atensyon sa isang modelo (hybrid architectures)
Wika ng Programming
Sawa
Kategorya
Ito ay isang application na maaari ding kunin mula sa https://sourceforge.net/projects/xformers.mirror/. Na-host ito sa OnWorks upang mapatakbo online sa pinakamadaling paraan mula sa isa sa aming mga libreng Operative System.
