Altro che agosto di quiete. Sono state settimane di febbrile agitazione, tra lanci inaspettati e dibattiti pubblici concitati.
🤖
OpenAI prova a sbancare con il lancio di ChatGPT-5. Era nell’aria da un po’ di tempo ma le aspettative sono parzialmente deluse. Tra problemi di performance e cambio di “personalità” il modello non incontra l’affezione della comunità, tanto che l’azienda stessa deve correggere il tiro e modificare alcune caratteristiche di progettazione.
Il lancio scoraggia gli investitori e lo stesso Altman che, forse per discolparsi dal parziale fallimento, rilancia le preoccupazioni sul rischio scoppio della bolla. Wall Street sconfessa le sue analisi ma la paura di un nuovo inverno AI avanza da più fronti. Quanto si dice da tempo è in parte vero: gli investimenti non ripagano, la sostenibilità energetica è un grande azzardo (con previsioni di esplosioni delle bollette) e il MIT sottolinea che addirittura fino al 95% dei progetti AI non va da nessuna parte.
C’è anche chi mette in discussione questi dati, dalle nostre parti è Raffaele Gaito, che ricorda come, al netto dei progetti specifici, l’uso implicito dell’AI sia talmente diffuso che sfugge dalle statistiche. Il motivo per cui sembra che l’AI non attecchisca è che in parte è già talmente radicata che non la vediamo nemmeno più.
👁️
Le big tech non si curano granché di queste statistiche, impegnate come sono a consolidare la loro rete di influenza.
In USA l’intreccio tra le aziende tech e gli enti governativi continua a rafforzarsi, al punto che i più preoccupati guardano con sospetto alle possibili derive di un capitalismo della sorveglianza, anche osservando la crescita esponenziale di realtà di controllo digitale di massa come Flock Safety. OpenAI per la prima volta annuncia una svolta nel suo regolamento che non ha precedenti. All’occorrenza si riserverà di inviare alle forze dell’ordine conversazioni ritenute pericolose.
Uno strappo davvero incredibile alla fiducia utente-azienda, se si pensa che company come Apple non consentono lo sblocco dei loro iPhone nemmeno dopo la scomparsa degli utenti. Intanto si rafforzano i rapporti tra il tech e la politica,; la Silicon Valley investe milioni di dollari per influenzare le elezioni di metà mandato, mentre la Casa Bianca annuncia che potrebbe acquisire partecipazioni in altre aziende di chip.
Sono (anche) gli effetti dei nuovi assetti anti Pechino, mentre Nvidia sospende la produzione di chip H20 da distribuire in Cina e Alibaba risponde con l’annuncio di un nuovo chip e con un balzo del 19% in borsa.
🌀
Certo è che la svolta “poliziesca” di OpenAI deve rispondere a un’altra esigenza che riguarda problemi sociali di primaria importanza, quelli legati alla “psicosi da AI”. Negli ultimi mesi si sono susseguite molte storie, talvolta finite in tragedia, su quella che si configura in tutto e per tutto come una nuova branca della psichiatria.
È in seguito al proliferare di queste derive che OpenAI tenta di costruire nuove procedure di sicurezza, collaborando anche con Anthropic per ricavare dati sul tema.
Ci sono altri nomi illustri a occuparsi del problema, su tutti Mustafa Suleyman, che scrive un mini saggio per mettere in guardia sull’antropomorfizzazione delle macchine e sui rischi sociali che ne derivano. La sincronia nella preoccupazione collettiva sul tema suggerisce una direzione precisa. C’è effettivamente l’AGI che si avvicina?
✨
Il mercato in effetti va avanti, talvolta inciampando talvolta prefigurando cambi di assetto importanti. Le parole di Suleyman hanno anche l’effetto di introdurre il lancio dei primi due modelli MAI di Microsoft, la dichiarazione di emancipazione della compagnia da OpenAI.
xAI non brilla. Prima presenta una (ennesima) causa contro Apple e OpenAI per comportamento monopolistico e dopo poco perde il responsabile finanziario Mike Liberatori, dimesso dopo pochi mesi di lavoro.
📱
Un’atmosfera simile a quella che si respira in Meta, il cui chiacchierato laboratorio di super AI (quello per cui sono state offerte montagne di soldi alle menti più brillanti provenienti dalla concorrenza) inizia già a perdere pezzi.
Apple continua il suo viaggio ai margini della scena, stringe (forse) accordi con Google per usarne l’AI in Siri e si prepara al grande evento del prossimo 9 settembre.
Google conquista i riflettori lanciando il nuovo modello di generazione immagini Gemini 2.5 Flash Image, accolto (come al solito) come il migliore di sempre. Big G scivola, però, proprio sui video e facendo anche un tonfo bello grosso. Emerge infatti che YouTube ha modificato alcuni video con l’AI senza dirlo agli utenti, solo per esperimento interno. Un fatto che passa un po’ in sordina ma di una gravità enorme. Un po’ come nel caso di OpenAI con la polizia, le aziende tech sembrano mirare ad ampliare i confini dell’accettabile in termini di fiducia con gli utenti. Forse solo per vedere fino a che punto si possono spingere.