OpenAI ha dichiarato che da ora, se vuole, potrà inviare le tue conversazioni con ChatGPT alla polizia

Solo in alcuni casi ovviamente: ma un'evoluzione sistemica di tale portata solleva importanti dubbi su privacy e controllo

4 min.

OpenAI ha dichiarato che da ora, se vuole, potrà inviare le tue conversazioni con ChatGPT alla polizia

OpenAI ha annunciato per la prima volta che alcune conversazioni su ChatGPT, se ritenute particolarmente preoccupanti, potranno essere inoltrate alle forze dell’ordine.

Quando “le persone hanno bisogno”

La dichiarazione è arrivata il 26 agosto 2025 in un post ufficiale intitolato Helping people when they need it most, dedicato all’utilizzo dell’intelligenza artificiale nel supporto psicologico degli utenti.

Secondo quanto spiegato dall’azienda, la procedura potrebbe scattare in particolare in uno scenario, quello delle minacce verso altri. Laddove emergessero intenzioni concrete in tal senso, la chat può essere esaminata da revisori umani e, nei casi più critici, trasmessa alla polizia.

Nel caso, invece, di eventuali tendenze autolesioniste degli utenti (intenti suicidi o altri comportamenti), la conversazione non verrà mai inoltrata alle autorità in rispetto della privacy. In questi casi ChatGPT continuerà a rispondere con empatia e di fornire contatti utili, come numeri di emergenza o associazioni di supporto.

Un’evoluzione sistemica

È un cambiamento molto significativo. Fino a oggi OpenAI aveva già parlato della possibilità che le conversazioni venissero lette da revisori per motivi di sicurezza o condivise solo a fronte di richieste legali formali (ad esempio da parte di un tribunale). Mai, però, aveva dichiarato in modo esplicito che avrebbe potuto per sua scelta coinvolgere direttamente le forze dell’ordine.

Quella di OpenAI è addirittura una decisione sensazionale nel panorama delle chat conversazionali, sia con AI che senza. Meta con Whatsapp e la sua crittografia end-to-end, Telegram con il suo blindatissimo protocollo proprietario MTProto, le policy ultra restrittive di Apple sugli iPhone: tutti elementi che da anni vanno nella direzione di impedire tassativamente a terzi di avere accesso alle conversazioni dei singoli utenti, perfino in seguito alla loro scomparsa.

Una nuova idea di fiducia?

La novità si inserisce in un quadro più ampio: l’AI è sempre più utilizzata non solo come strumento di lavoro ma come spazio di confidenza personale. OpenAI cerca dunque di proporre un piccolo quadro di regolamentazione per le casistiche più rischiose.

Tuttavia, l’annuncio solleva inevitabilmente interrogativi sulla privacy e il controllo. Chi stabilisce cosa sia “una minaccia concreta”? Fino a che punto gli utenti possono sentirsi liberi di parlare apertamente con un sistema che, in determinate circostanze, potrebbe trasformarsi in un canale verso la polizia?

Ѐ una novità dunque che segna un precedente molto significativo e apre a una riconfigurazione della fiducia implicita tra gli utenti e le aziende del tech. Per quanto limitata a casi che coinvolgono la sicurezza collettiva, qualcuno potrebbe vedere in questa novità il primo tassello di un sistema in cui le AI fanno da intermediari tra le singole persone e gli organi di vigilanza o autorità di controllo. Non tutti potrebbero sentirsi a loro agio con uno scenario simile.


Leggi altri articoli sulla sorveglianza:

🔎


Ultime news


L’ufficio stampa della Casa Bianca ha pubblicato l’immagine di una donna in stato di arresto modificata con AI

All'immagine dell'arresto dell'avvocata e attivista Nekima Levy Armstrong sono state…

L’ufficio stampa della Casa Bianca ha pubblicato l’immagine di una donna in stato di arresto modificata con AI
Anthropic ha pubblicato una Costituzione per Claude contenente i principi per lo sviluppo etico del modello

Attraverso la pubblicazione di una Costituzione per Claude Anthropic ha…

Anthropic ha pubblicato una Costituzione per Claude contenente i principi per lo sviluppo etico del modello
Il game changer di Anthropic (e altre notizie generative) | Weekly AI

Weekly AI è la newsletter settimanale di AI news sulle…

Il game changer di Anthropic (e altre notizie generative) | Weekly AI
Intel non riesce a soddisfare la domanda di chip del mercato: azioni giù del 13%

I vertici dell'azienda hanno affermato che le linee produttive sono…

Intel non riesce a soddisfare la domanda di chip del mercato: azioni giù del 13%

In Evidenza


Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20
Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

Privacy policy| Cookie policy| Cookie setting| © 2026