OpenAI ridisegna la propria line‑up di modelli

La società lancia o3, o4-mini e o4-mini-high, presenta le API della famiglia GPT-4.1 e si prepara a salutare GPT-4

4 min.

OpenAI ridisegna la propria line‑up di modelli

OpenAI ha recentemente annunciato tre mosse che, lette insieme, confermano (e allo stesso tempo correggono) la sua strategia a medio-lungo termine. La dismissione di GPT‑4 da ChatGPT a fine mese, l’arrivo in API della famiglia GPT‑4.1 e il debutto dei nuovi modelli di ragionamento o‑series, o3 e o4‑mini, vanno nella direzione di una maggiore agentità.

GPT‑4 lascia ChatGPT il 30 aprile

Per prima cosa, OpenAI ha comunicato che GPT‑4 verrà sostituito completamente da GPT‑4o all’interno di ChatGPT a partire dal 30 aprile 2025. Il modello resterà però disponibile via API.

La scelta è motivata dai test interni che vedono GPT‑4o superare GPT‑4 in scrittura, coding e discipline STEM.​ Un miglioramento inesorabile che ha interessato – a volte di più, altre meno – tutti i modelli della società.

Lo stesso Sam Altman ne è consapevole e orgoglioso. “ChatGPT adesso è fantastico – ha scritto ieri su X – Forse dovremmo rendere disponibile la versione di dicembre 2022 così che le persone possano vedere quanta strada abbiamo fatto. Sembrerebbe così antiquata”.

https://twitter.com/sama/status/1912919833290916234

GPT‑4.1, 4.1 mini e 4.1 nano arrivano nelle API

Con riferimento ai lanci, questa settimana, OpenAI ha presentato la serie GPT‑4.1, disponibile solo via API. I tre modelli GPT-4.1, 4.1 mini e 4.1 nano (per cui esiste anche una prompting guide) condividono una context window fino a un milione di token, superano GPT‑4o in coding e instruction following e portano un knowledge cutoff (momento nel quale è stato interrotto l’apprendimento) aggiornato a giugno 2024.

La variante mini riduce inoltre la latenza di quasi la metà e i costi dell’83%, elementi ancora più evidenti nella versione nano, la quale risulta essere la più veloce ed economica tra i nuovi modelli.​

o3 e o4-mini: modelli di ‘ragionamento’ multimodali e con accesso ai tool

Come se non bastasse, OpenAI ha svelato anche o3 e o4‑mini (+ 04-mini-high), descritti come “i modelli più intelligenti” dell’azienda. Una correzione di rotta rispetto a quanto annunciato da Altman a febbraio: il CEO aveva infatti dichiarato che o3 non sarebbe più stato lanciato come modello autonomo.

OpenAI cancella il lancio di o3 e indica una nuova rotta verso GPT-5

Sam Altman ha illustrato i prossimi passi di OpenAI, annunciando…

Oltre a benchmark di primo livello in coding, matematica e visione, la novità principale di questi modelli è la piena capacità di usare e combinare tutti gli strumenti di ChatGPT (web search, codice Python, file upload, image generation) in modo agentico, scegliendo autonomamente quando richiamarli.

“Questo consente loro di affrontare domande sfaccettate in modo più efficace, un passo avanti verso un ChatGPT più agentico, in grado di eseguire attività per te in modo indipendente – dichiara OpenAI – La potenza combinata di un ragionamento all’avanguardia con l’accesso completo agli strumenti si traduce in prestazioni significativamente più elevate nei benchmark accademici e nelle attività real-world, stabilendo un nuovo standard sia in termini di intelligenza che di utilità”.

Inoltre, un elemento di differenziazione della nuova famiglia di modelli ‘ragionanti’ è l’integrazione dei contenuti visivi nella chain-of-thought. Ha spiegato l’azienda: “Per la prima volta, questi modelli possono integrare le immagini direttamente nella loro catena di pensiero. Non si limitano a vedere un’immagine: pensano con essa. Questo apre una nuova classe di problem-solving che fonde ragionamento visivo e testuale, riflettendosi nelle loro prestazioni all’avanguardia nei benchmark multimodali”.

Dov’è la “semplificazione” preannunciata da Altman?

Vogliamo migliorare nella condivisione della nostra roadmap prevista e nel semplificare la nostra offerta di prodotti, dichiarava Sam Altman in un tweet di febbraio. Eppure sembra che i modelli non stiano diminuendo, ma che stiano invece moltiplicando a visto d’occhio. Basti pensare alla confusione che la differenza tra i nomi (anagrammati) dei modelli GPT-4o e o4 potrà generare.

Per la semplificazione tanto voluta dal CEO di OpenAI si dovrà ancora attendere…


Ultime news


Google ha lanciato un aggiornamento del suo strumento di generazione video AI Veo

L'aggiornamento apporta miglioramenti su realismo, controllo e continuità nelle scene…

Il paradosso di OpenAI: è sempre più centrale ma perde miliardi di dollari

I costi sono ancora fuori controllo, ma secondo Altman è…

Meta si affida alle infrastrutture di Arm per le raccomandazioni AI sulle sue piattaforme

L'intesa prevede un ampio utilizzo delle architetture di Arm all'interno…

Anthropic ha lanciato una nuova versione del modello Haiku

Secondo l'azienda Haiku 4.5 offre prestazioni simili a Sonnet 4…

Lo Zugzwang di Google

Integrando l'AI nella ricerca, Google mette in crisi gli editori,…

In Evidenza


Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano

Gli ideatori, Lucia Cenetiempo e Massimiliano Di Blasi, ci raccontano…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

Privacy policy| Cookie policy| Cookie setting| © 2025

Exit mobile version