Date le conseguenze finanziarie che il caso DeepSeek sta avendo sul mercato, e soprattutto su NVIDIA, abbiamo contattato il colosso dei chip per richiedere un commento.
“DeepSeek è un eccellente avanzamento dell’AI e un perfetto esempio di test-time scaling – dichiara un portavoce della società – Il lavoro di DeepSeek illustra come sia possibile creare nuovi modelli utilizzando tale tecnica, sfruttando modelli ampiamente disponibili e risorse computazionali pienamente conformi alle normative sull’export.
L’inferenza richiede un numero significativo di GPU NVIDIA e reti ad alte prestazioni. Ora abbiamo tre leggi di scaling (ridimensionamento in crescita, ndr): pre-training e post-training, che continuano, e la nuova test-time scaling”.
Ma cosa significa test-time scaling?
Si tratta di una tecnica emergente nell’ambito dell’intelligenza artificiale che si concentra sull’allocazione di risorse computazionali durante la fase di inferenza, ovvero quando un modello AI genera output in risposta a input specifici.
Questa strategia mira a migliorare la qualità delle risposte fornite dai modelli, specialmente in compiti complessi di ragionamento, dando loro più tempo per ‘riflettere’ e formulare una risposta.