AI Research Engineer - Pre-Training
TetherUn ruolo di ricerca applicata per chi vuole spingere i limiti del pre-training dei modelli linguistici su scala enorme, progettando architetture innovative su cluster con migliaia di GPU NVIDIA.
Ruolo
Condurrai esperimenti di pre-training su server distribuiti ad altissima scala, progetterai e prototiperai nuove architetture per modelli LLM di varie dimensioni - small, large e multi-modali. Eseguirai esperimenti in autonomia e in collaborazione, analizzerai i risultati, identificherai e risolverai bottleneck di efficienza computazionale e di intelligenza del modello. Contribuirai all'avanzamento dei sistemi di training per garantirne la scalabilità sulle piattaforme target.
Tecnologie
PyTorch, Hugging Face, framework di training distribuito su larga scala (es. Megatron-LM, DeepSpeed), architetture transformer e non-transformer state-of-the-art, tecniche di continual pretraining e ottimizzazione. Richiesta esperienza diretta con cluster GPU NVIDIA di grandi dimensioni.
Condividi annuncio
Informazioni su Tether
Tether è una delle realtà più influenti nel panorama tecnologico e finanziario globale, nota soprattutto per aver creato USDt, la stablecoin più grande al mondo per capitalizzazione di mercato, utilizzata da centinaia di milioni di persone in ogni continente.
Ma Tether è molto più di una società crypto: opera attraverso cinque aree strategiche - Finance, Power, Data, Edu ed Evo - che spaziano dal mining sostenibile di Bitcoin, allo sviluppo di infrastrutture AI e peer-to-peer, fino all'educazione digitale e alla ricerca sull'evoluzione umana.
Con oltre 20.000 GPU dedicate all'intelligenza artificiale, più di 15 siti di mining attivi in tutto il mondo e una missione dichiarata di rendere la tecnologia accessibile a individui, comunità e governi, Tether si posiziona come un player visionario che ridefinisce i confini tra finanza, innovazione e impatto sociale su scala globale.
