#AI Recap: cosa ti sei perso sull’intelligenza artificiale a gennaio 2026

Gennaio è stato il mese in cui l’AI ha smesso di promettere e ha iniziato a posizionarsi. Nell’infrastruttura, nella regolamentazione, nella sicurezza, nella salute, nei modelli di business.

7 min.

#AI Recap: cosa ti sei perso sull’intelligenza artificiale a gennaio 2026

Gennaio è sempre così: il mese delle ripartenze. Una pagina bianca da scrivere, carica di buoni propositi, nuove abitudini, nuovi inizi. E anche sul fronte Intelligenza Artificiale, a inizio anno, ce l’aspettavamo un po’ tutti: qualche grande release, un nuovo prodotto atteso o l’app che “cambia tutto”. E invece gennaio ha raccontato tutt’altro.

Mentre le cronache erano occupate da tensioni politiche sempre più spregiudicate con scenari internazionali che sembravano una partita a Risiko, l’AI non faceva rumore e si è concentrata su altro.

Il World Economic Forum

Per capire in che direzione andrà l’anno, bisogna seguire attentamente quello che è accaduto a Davos al World Economic Forum. L’edizione del 2026 si è aperta sotto il tema “A Spirit of Dialogue”: ovvero un invito al confronto in un mondo che, nei fatti, sembra sempre più frammentato. L’intelligenza artificiale è stata una presenza costante, ma non come novità tecnologica. È entrata nei discorsi su sicurezza, energia, produttività, e ovviamente sulla geopolitica.

I messaggi dei leader dell’AI – da Amodei, Nadella Musk – sono stati chiari, anche se diversi. C’è chi ha messo l’accento sui chip e sulla sicurezza nazionale. Chi guarda all’AGI come a una chiave per capire meglio il mondo. Chi ha riportato tutti con i piedi per terra affermando che, l’AI potrebbe essere una bolla se resta solo tra le mura delle big tech.

Grok: la difesa USA e il blocco temporaneo in Asia

In questo clima, una notizia è passata quasi in sordina: il Pentagono si prepara a integrare Grok (l’AI di Musk) nelle reti militari degli Stati Uniti.

È un dettaglio solo in apparenza. Perché segna un passaggio preciso: l’intelligenza artificiale entra nei sistemi dove le decisioni non sono reversibili, dove l’errore non è un bug, ma un rischio strategico.

E nello stesso mese, Grok diventa anche protagonista di un’altra storia, molto diversa, ma forse ancora più inquietante. Indonesia e Malesia decidono di bloccarlo temporaneamente dopo la diffusione di una grande quantità di immagini sessualizzate generate dall’AI. Secondo i governi, molti di quei contenuti ritraggono donne reali e minori, in alcuni casi con elementi di violenza. Non è più una questione di “contenuti discutibili”: entrano in gioco diritti umani, dignità, sicurezza nello spazio digitale.

La reazione si allarga. L’India chiede interventi diretti e la Commissione Europea inizia a muoversi. Nel Regno Unito, il regolatore Ofcom valuta una possibile indagine. E tutto questo mentre Elon Musk pubblica sui social una sua immagine in bikini. Un gesto che, più che provocazione, suona come un corto circuito culturale: mentre il mondo discute di deepfake non consensuali, il confine tra ironia, potere e irresponsabilità diventa sempre più sottile.

La Commissione europea ha avviato un'indagine su X per le immagini sessualizzate non consensuali generate da Grok

L'indagine della Commissione segue altre iniziative legali intraprese da diversi…

La Spagna regola i deepfake

A tal proposito, il governo spagnolo approva un disegno di legge che limita l’uso dei deepfake e rafforza le regole sul consenso per immagini e voci generate con AI. L’uso non autorizzato diventa penalmente rilevante, l’età minima per concedere il consenso viene fissata a 16 anni con una tutela particolare per i minori.

Non è una crociata contro la creatività e AI. È il segnale che la regolazione sta passando dalla teoria alla pratica.

OpenAI lancia ChatGPT Health

Nel mese di gennaio, OpenAI ha fatto molti annunci. Tra questi ha lanciato ChatGPT Health. OpenAI lo presenta come una stanza separata dentro ChatGPT: un posto dedicato e costruito per aiutarti a orientarti tra referti medici, visite, app e dati che oggi sono sparsi ovunque. L’idea è che tu possa collegare in modo sicuro cartelle cliniche e strumenti di benessere, così la conversazione non resta “generica” ma parte dal tuo contesto.

OpenAI insiste molto sulle protezioni: conversazioni isolate dalle altre chat, crittografia, e la promessa che i contenuti di Salute non vengono usati per addestrare i modelli di base; inoltre insistono su un limite chiaro: non è uno strumento per diagnosi o trattamenti, ma per capire, prepararti e arrivare meglio alle conversazioni con il tuo medico.

E qui però entra il nostro punto di vista, quello un po’ più “da dietro le quinte”. Perché ChatGPT Health non è solo una nuova funzionalità: è una dichiarazione d’intenti. OpenAI sta cercando di creare un posto dove l’essere umano non va più solo a “cercare informazioni”, ma va a trovare risposte sulla propria vita. Ed è coerente con tutto il loro mondo!

ChatGPT come interfaccia universale, quella che ti segue ovunque e, idealmente, ti risponde su tutto, e la salute, in questo disegno, è perfetta: è un mondo enorme, un’industria gigantesca, e soprattutto è un tema dove le persone tornano spesso, con urgenza.

L’acquisizione di Torch e la risposta di Anthropic

Infatti, a rendere questo disegno ancora più chiaro, arriva l’altra notizia: OpenAI ha acquisito Torch, l’operazione sarebbe stata valutata circa 100 milioni di dollari in equity. Torch è una startup healthcare che prova a risolvere un problema molto concreto:  i dati medici personali che sono spesso sparsi tra ospedali, esami, app e dispositivi sono unificati in un unico sistema.

Neanche il tempo di metabolizzare l’annuncio di OpenAI, e Anthropic presenta Claude for Healthcare. Stessa intuizione di fondo, ma con una differenza di taglio abbastanza netta. Claude for Healthcare è pensato per lavorare “dentro” la sanità, non solo per parlare di salute. Prova a togliere di mezzo un nemico enorme: la burocrazia, quella che ruba ore a medici e alle strutture. Come ci prova? Collegando Claude a banche dati e sistemi di ospedali, cliniche e assicurazioni.

Anthropic risponde a OpenAI ed entra nel settore sanitario lanciando Claude for Healthcare

Claude for Healthcare offre strumenti e soluzioni sia ai professionisti…

La pubblicità su ChatGPT

Non è finita qui perché tra i vari annunci di questo mese uno ha fatto discutere parecchio: Sam Altman ha annunciato che OpenAI sta iniziando a testare la pubblicità su ChatGPT. Gli annunci compariranno nella versione gratuita e nel nuovo piano ChatGPT Go da 8 dollari al mese. Saranno chiaramente segnalati e, promettono, non influenzeranno le risposte. Altman ha anche specificato che OpenAI non utilizzerà i contenuti delle conversazioni per vendere dati agli inserzionisti.

Detta così sembra tutto sotto controllo. Ma il tempismo è interessante: nello stesso mese in cui ChatGPT diventa più personale, più intimo, più vicino alla tua vita reale – salute inclusa – l’idea di inserire ads dentro quella conversazione richiede un equilibrio chirurgico.

E qui ci scappa l’ironia, perché gennaio in Italia ci ha insegnato una parola che torna sempre: fiducia. Tra processi mediatici e Pandoro Gate, abbiamo visto quanto velocemente un patto possa incrinarsi. E allora la battuta viene quasi da sola: dopo il Pandoro Gate… occhio a non inaugurare il ChatGPT Gate.

Anthropic: una Costituzione per Claude

Restando in tema di fiducia, Anthropic ha pubblicato una “Costituzione” per Claude: un documento che stabilisce i valori e i principi che guidano il comportamento della sua intelligenza artificiale.

L’obiettivo è aiutare il modello a bilanciare utilità, etica, sicurezza e rispetto delle linee guida aziendali, non solo attraverso regole rigide, ma spiegando il perché di certe scelte. Anthropic lo definisce un documento “vivo”, destinato ad aggiornarsi nel tempo insieme all’evoluzione delle capacità dell’Intelligenza Artificiale.

Anthropic ha pubblicato una Costituzione per Claude contenente i principi per lo sviluppo etico del modello

Attraverso la pubblicazione di una Costituzione per Claude Anthropic ha…

Ecco, se gennaio ci lascia un messaggio è questo: non è stato il mese dell’app “che cambia tutto”. È stato il mese in cui l’AI ha smesso di promettere e ha iniziato a posizionarsi. Nell’infrastruttura, nella regolamentazione, nella sicurezza,  nella salute, nei modelli di business. L’AI resta una pagina bianca, sì. Ma già piena di scelte che contano.


Ultime news


Google ha stretto un accordo multimiliardario con la startup Thinking Machines Lab

L'intesa garantirà alla startup l'accesso ai sistemi Google basati sulle…

Google ha stretto un accordo multimiliardario con la startup Thinking Machines Lab
OpenAI non resta indietro sulla sicurezza: testato GPT-5.4 Cyber con gli stati della Five Eyes

L'obiettivo è fornire agli stati strumenti avanzati per l'individuazione delle…

OpenAI non resta indietro sulla sicurezza: testato GPT-5.4 Cyber con gli stati della Five Eyes
Meta monitorerà i suoi dipendenti al PC per creare nuovi dataset di addestramento per l’AI

L'obiettivo dell'azienda è colmare i punti deboli dei modelli AI…

Meta monitorerà i suoi dipendenti al PC per creare nuovi dataset di addestramento per l’AI
Tesla ha registrato il suo assistente vocale alla guida AI in Cina

La Cina rappresenta il secondo mercato globale per Tesla, con…

Tesla ha registrato il suo assistente vocale alla guida AI in Cina

In Evidenza


Intelligenza artificiale: prepararsi al 2026 | Il report di AI News

Il nuovo report di AI News per non farsi sorprendere…

Intelligenza artificiale: prepararsi al 2026 | Il report di AI News
AI, bolla o non bolla? Il parere degli esperti non è unanime

Ne abbiamo intervistati cinque per unire i puntini

AI, bolla o non bolla? Il parere degli esperti non è unanime
Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

Privacy policy| Cookie policy| Cookie setting| © 2026