OpenAI ha aggiornato le Politiche di utilizzo dei suoi servizi. Tra i divieti elencati nell’aggiornamento del 29 ottobre, ci sono le classiche limitazioni legate alla tutela delle persone e all’uso improprio dei sistemi: non sono ammessi minacce e molestie, violenza (comprese le forme motivate dall’odio), sfruttamento sessuale, terrorismo, sviluppo o uso di armi, attività illecite, hacking e violazioni della proprietà altrui, gioco d’azzardo con denaro reale, test di sicurezza non richiesti o elusione delle misure di sicurezza. E fin qui, tutto regolare e prevedibile.
L’aggiornamento all’apparenza più evidente riguarda però le “consulenze personalizzate che richiedono una licenza, come consulenze legali o mediche“, ora espressamente vietate “senza l’opportuno coinvolgimento di un professionista abilitato”. I consulti medici e i pareri legali ‘personalizzati’ che facciamo generare quotidianamente a ChatGPT? Vietati (più o meno).
I temi trattati all’interno dell’articolo
Cosa cambia davvero
La nuova policy, in sostanza, vieta esplicitamente il consiglio personalizzato, ma consente, come sempre, di ottenere informazioni, anche su questioni mediche e legali. Lo stesso Karan Singhal, che si occupa di health AI in OpenAI, ha spiegato su X che “il comportamento del modello rimane invariato. ChatGPT non ha mai sostituito la consulenza professionale, ma continuerà a essere un’ottima risorsa per aiutare le persone a comprendere le informazioni legali e sanitarie”.
Percettivamente, però, si nota un contrasto con le dichiarazioni estive di OpenAI e dello stesso Sam Altman. Il giorno del lancio di GPT-5, il sistema veniva presentato come “il nostro miglior modello finora per le domande relative alla salute”, con risultati significativamente superiori nei test HealthBench, un benchmark introdotto a maggio 2025 con la collaborazione di oltre 260 medici e 5.000 conversazioni realistiche. E il post di annuncio sul sito ufficiale di OpenAI sottolinea tutt’oggi che GPT-5 “ora risponde in modo più preciso e affidabile, adattandosi al contesto, al livello di conoscenza e alla posizione geografica dell’utente, in modo da fornire risposte più sicure e utili in un’ampia gamma di scenari”.
OpenAI presenta GPT-5: il nuovo modello è già disponibile per tutti (anche per gli utenti Free)
Velocità, app complete in pochi minuti, meno allucinazioni e più…
Nonostante un disclaimer fosse già stato posto in primo piano (“ChatGPT non sostituisce un medico professionista”) e OpenAI avesse già messo le mani avanti, Altman aveva voluto dedicare uno spazio ad hoc alla presentazione in streaming delle funzionalità di GPT-5 legate alla salute. La parola era passata a un dipendente di OpenAI e a sua moglie, la quale ha raccontato la sua lotta contro diverse tipologie di cancro. L’ha fatto spiegando come ChatGPT l’avesse aiutata a reperire informazioni mediche affidabili, a organizzare domande da porre ai medici e a valutare diverse opzioni terapeutiche.
Nessuna sostituzione di personale medico all’orizzonte, ma un ‘endorsement’ importante al supporto che ChatGPT può fornire in questi momenti. Il rischio di errori del modello e di essere trascinati in tribunale per le sue risposte e le loro conseguenze, però, era troppo forte. Ecco perché si è resa necessaria la modifica ufficiale dei termini.
Cosa significa per gli utenti
L’aggiornamento delle policy segna una presa d’atto più che una vera novità: le speranze di ottenere un’AI “medico di fiducia” (o “avvocato tascabile”) autonoma cozzano con i rischi reali – sociali e giuridici – derivanti dall’affidamento di decisioni delicate a un sistema probabilistico. OpenAI, come quasi tutti gli altri provider di LLM, sceglie così la prudenza, mettendo nero su bianco, anche nelle sue politiche di utilizzo, la necessità di coinvolgere “un professionista abilitato” che possa interpretare, validare e contestualizzare le risposte dei modelli. Uno shift di responsabilità. Un passo obbligato se si vogliono prevenire future cause legali.
ChatGPT può restare un ottimo strumento di informazione e alfabetizzazione, anche in ambiti sensibili, ma non può legalmente sostituire – e lo ripetiamo per l’ennesima volta a rischio di ridondanza – chi esercita una professione regolamentata.
(Nei test che abbiamo effettuato nel corso della settimana, non abbiamo notato una grande differenza nel comportamento di ChatGPT, se non una maggiore presenza di disclaimer quando gli si chiede una diagnosi personalizzata o un parere legale mirato.)