Amazon Web Services (AWS) ha annunciato che utilizzerà la tecnologia chip NVLink Fusion di Nvidia nelle sue prossime generazioni di chip AI. Il futuro chip di AWS, denominato Trainium4, non ha una data sicura di lancio ma potrà contare sulla tecnologia di Nvidia che permette connessioni veloci tra diversi tipi di chip.
La tecnologia permetterà ad AWS di costruire grandi server di intelligenza artificiale, un progetto del colosso statunitense dell’e-commerce noto come “AI Factories”. Questi avranno un’esclusiva capacità di riconoscersi e comunicare fra loro più velocemente e in maniera più efficiente. La velocità di comunicazione e la connessione fra server diversi, che prevede che migliaia di macchine diverse siano collegate fra loro, è uno dei fattori più critici per l’addestramento di modelli AI di grandi dimensioni.
“Insieme, Nvidia e AWS stanno creando la struttura di elaborazione per la rivoluzione industriale dell’intelligenza artificiale, portando l’intelligenza artificiale avanzata in ogni azienda, in ogni paese, e accelerando il percorso mondiale verso l’intelligenza”, ha affermato con entusiasmo in una nota il CEO di Nvidia Jensen Huang.
Parallelamente AWS ha lanciato delle importanti novità nell’ambito della conferenza aziendale annuale di Las Vegas. Da un lato una nuova generazione di chip chiamata Trainium3 che, secondo quanto dichiarato dal vicepresidente dei servizi di elaborazione e apprendimento automatico di AWS Dave Brown, ha una capacità di calcolo quattro volte maggiore rispetto alla precedente generazione e consuma il 40% di energia in meno. Dall’altro due nuovi modelli di AI particolarmente efficienti noti come Nova 2 e Sonic, e un servizio chiamato Nova Forge pensato per aiutare le aziende a creare i propri modelli di intelligenza artificiale utilizzando i dati inseriti da loro.
Amazon, annunciati 65 miliardi di dollari di investimenti negli Stati Uniti fra AI governativa e nuovi data center
Un piano da 50 miliardi di dollari sarà destinato al…