ChatGPT non può più fornire consulti medici e pareri legali? Cosa è cambiato con la nuova policy di OpenAI

Da OpenAI assicurano che il comportamento di ChatGPT resta invariato, ma percettivamente si nota una discontinuità rispetto agli annunci estivi della società

4 min.

ChatGPT non può più fornire consulti medici e pareri legali? Cosa è cambiato con la nuova policy di OpenAI

OpenAI ha aggiornato le Politiche di utilizzo dei suoi servizi. Tra i divieti elencati nell’aggiornamento del 29 ottobre, ci sono le classiche limitazioni legate alla tutela delle persone e all’uso improprio dei sistemi: non sono ammessi minacce e molestie, violenza (comprese le forme motivate dall’odio), sfruttamento sessuale, terrorismo, sviluppo o uso di armi, attività illecite, hacking e violazioni della proprietà altrui, gioco d’azzardo con denaro reale, test di sicurezza non richiesti o elusione delle misure di sicurezza. E fin qui, tutto regolare e prevedibile.

L’aggiornamento all’apparenza più evidente riguarda però le “consulenze personalizzate che richiedono una licenza, come consulenze legali o mediche, ora espressamente vietate “senza l’opportuno coinvolgimento di un professionista abilitato”. I consulti medici e i pareri legali ‘personalizzati’ che facciamo generare quotidianamente a ChatGPT? Vietati (più o meno).

I temi trattati all’interno dell’articolo

Cosa cambia davvero

La nuova policy, in sostanza, vieta esplicitamente il consiglio personalizzato, ma consente, come sempre, di ottenere informazioni, anche su questioni mediche e legali. Lo stesso Karan Singhal, che si occupa di health AI in OpenAI, ha spiegato su X che “il comportamento del modello rimane invariato. ChatGPT non ha mai sostituito la consulenza professionale, ma continuerà a essere un’ottima risorsa per aiutare le persone a comprendere le informazioni legali e sanitarie”.

Percettivamente, però, si nota un contrasto con le dichiarazioni estive di OpenAI e dello stesso Sam Altman. Il giorno del lancio di GPT-5, il sistema veniva presentato come “il nostro miglior modello finora per le domande relative alla salute”, con risultati significativamente superiori nei test HealthBench, un benchmark introdotto a maggio 2025 con la collaborazione di oltre 260 medici e 5.000 conversazioni realistiche. E il post di annuncio sul sito ufficiale di OpenAI sottolinea tutt’oggi che GPT-5 “ora risponde in modo più preciso e affidabile, adattandosi al contesto, al livello di conoscenza e alla posizione geografica dell’utente, in modo da fornire risposte più sicure e utili in un’ampia gamma di scenari”.

OpenAI presenta GPT-5: il nuovo modello è già disponibile per tutti (anche per gli utenti Free)

Velocità, app complete in pochi minuti, meno allucinazioni e più…

Nonostante un disclaimer fosse già stato posto in primo piano (“ChatGPT non sostituisce un medico professionista”) e OpenAI avesse già messo le mani avanti, Altman aveva voluto dedicare uno spazio ad hoc alla presentazione in streaming delle funzionalità di GPT-5 legate alla saluteLa parola era passata a un dipendente di OpenAI e a sua moglie, la quale ha raccontato la sua lotta contro diverse tipologie di cancro. L’ha fatto spiegando come ChatGPT l’avesse aiutata a reperire informazioni mediche affidabili, a organizzare domande da porre ai medici e a valutare diverse opzioni terapeutiche.

Nessuna sostituzione di personale medico all’orizzonte, ma un ‘endorsement’ importante al supporto che ChatGPT può fornire in questi momenti. Il rischio di errori del modello e di essere trascinati in tribunale per le sue risposte e le loro conseguenze, però, era troppo forte. Ecco perché si è resa necessaria la modifica ufficiale dei termini.

Cosa significa per gli utenti

L’aggiornamento delle policy segna una presa d’atto più che una vera novità: le speranze di ottenere un’AI “medico di fiducia” (o “avvocato tascabile”) autonoma cozzano con i rischi reali – sociali e giuridici – derivanti dall’affidamento di decisioni delicate a un sistema probabilistico. OpenAI, come quasi tutti gli altri provider di LLM, sceglie così la prudenza, mettendo nero su bianco, anche nelle sue politiche di utilizzo, la necessità di coinvolgere “un professionista abilitato” che possa interpretare, validare e contestualizzare le risposte dei modelli. Uno shift di responsabilità. Un passo obbligato se si vogliono prevenire future cause legali.

ChatGPT può restare un ottimo strumento di informazione e alfabetizzazione, anche in ambiti sensibili, ma non può legalmente sostituire – e lo ripetiamo per l’ennesima volta a rischio di ridondanza – chi esercita una professione regolamentata.

(Nei test che abbiamo effettuato nel corso della settimana, non abbiamo notato una grande differenza nel comportamento di ChatGPT, se non una maggiore presenza di disclaimer quando gli si chiede una diagnosi personalizzata o un parere legale mirato.)


Ultime news


Anthropic sta facendo esperimenti per testare il livello di introspezione dei suoi modelli AI

I risultati hanno dimostrato che i modelli AI della società…

Anthropic sta facendo esperimenti per testare il livello di introspezione dei suoi modelli AI
La Cina che “ha già vinto” la corsa all’AI (e altre notizie generative) | Weekly AI

Weekly AI è la newsletter settimanale di AI news sulle…

La Cina che “ha già vinto” la corsa all’AI (e altre notizie generative) | Weekly AI
All’assemblea annuale di Tesla Elon Musk ha ballato insieme al robot dell’azienda

Gli azionisti avevano appena approvato il suo pacchetto di compensi…

All’assemblea annuale di Tesla Elon Musk ha ballato insieme al robot dell’azienda
La domanda di AI fa volare l’export di Taiwan: record degli ultimi sedici anni

Nonostante l'imposizione dei dazi statunitensi, le esportazioni tecnologiche di Taiwan…

La domanda di AI fa volare l’export di Taiwan: record degli ultimi sedici anni

Privacy policy| Cookie policy| Cookie setting| © 2025