Alibaba ha registrato un’impennata del 7% nelle sue azioni a Hong Kong dopo aver reso pubblico il suo modello di intelligenza artificiale QwQ-32B (da 32 miliardi di parametri). La mossa, annunciata ieri, sottolinea l’intensificarsi della competizione nel settore AI cinese, in cui il nuovo modello sfida direttamente DeepSeek R1, offrendosi come alternativa più efficiente dal punto di vista economico ed energetico.
QwQ-32B, in particolare, è caratterizzato da una complessità ridotta – contando solo una frazione dei parametri vantati dal rivale creato da DeepSeek – e, nonostante ciò, ha raggiunto risultati interessanti nella comparazione con altri modelli di punta (nell’immagine) in benchmark relativi al ragionamento matematico, alla codifica e alle capacità di problem-solving.

Il commento del team di sviluppo
“La nostra ricerca esplora la scalabilità del reinforcement learning (RL) e il suo impatto sul miglioramento dell’intelligenza dei grandi modelli linguistici – ha commentato il team di sviluppo del modello – Siamo entusiasti di presentare QwQ-32B, un modello con 32 miliardi di parametri che raggiunge prestazioni paragonabili a DeepSeek-R1, che vanta 671 miliardi di parametri (con 37 miliardi attivati). Questo risultato straordinario sottolinea l’efficacia del reinforcement learning quando applicato a foundation models robusti preaddestrati su una vasta conoscenza del mondo.
Inoltre, abbiamo integrato capacità agentiche nel modello di ragionamento, consentendogli di pensare in modo critico mentre utilizza strumenti e adatta il suo ragionamento in base al feedback ambientale. Questi progressi non solo dimostrano il potenziale trasformativo del RL, ma aprono anche la strada a ulteriori innovazioni nella ricerca dell’intelligenza artificiale generale”.