Uber Technologies ha impresso una svolta decisiva alla sua strategia tecnologica siglando un accordo strategico con Amazon Web Services per l’adozione dei suoi chip proprietari. Il colosso del ride-sharing utilizzerà i processori Trainium3 per l’addestramento dei modelli e i chip Graviton4 per ottimizzare le operazioni in tempo reale. Questa mossa mira a ridurre drasticamente la dipendenza dalle costose GPU di Nvidia, che hanno dominato il mercato finora, cercando una maggiore efficienza operativa e una riduzione dei costi energetici nel cloud.
L’integrazione di questi chip personalizzati non è solo una questione di risparmio, ma di pura performance logistica. Secondo i dati rilasciati da AWS, i nuovi processori permettono di gestire i Trip Serving Zones di Uber, cioè l’infrastruttura che elabora ogni singola richiesta, con una latenza ridotta a pochi millisecondi. Kamran Zargahi, vice presidente dell’ingegneria di Uber, ha dichiarato: “Operiamo su una scala in cui i millisecondi contano; spostare questi carichi di lavoro su AWS ci offre la flessibilità necessaria per gestire picchi di domanda senza interruzioni”.
L’obiettivo finale è rendere l’esperienza utente più intelligente e personalizzata. Grazie alla potenza di calcolo di Trainium, Uber punta a perfezionare i suoi algoritmi di matching tra autisti e passeggeri e a rendere più precise le stime dei tempi di consegna per Uber Eats. Come sottolineato da Rich Geraffo di AWS, questa collaborazione non serve solo a garantire l’affidabilità odierna, ma a definire le “esperienze alimentate dall’AI che caratterizzeranno la mobilità di domani”, consolidando un trend dove le grandi aziende tech preferiscono costruire direttamente, o adottare, hardware su misura per le proprie specifiche esigenze.

Nvidia venderà ad Amazon un milione di chip per il cloud entro la fine del 2027
L'accordo ha l’obiettivo di migliorare il rendimento e la qualità…














