OpenAI ha dichiarato che da ora, se vuole, potrà inviare le tue conversazioni con ChatGPT alla polizia

Solo in alcuni casi ovviamente: ma un'evoluzione sistemica di tale portata solleva importanti dubbi su privacy e controllo

4 min.

OpenAI ha dichiarato che da ora, se vuole, potrà inviare le tue conversazioni con ChatGPT alla polizia

OpenAI ha annunciato per la prima volta che alcune conversazioni su ChatGPT, se ritenute particolarmente preoccupanti, potranno essere inoltrate alle forze dell’ordine.

Quando “le persone hanno bisogno”

La dichiarazione è arrivata il 26 agosto 2025 in un post ufficiale intitolato Helping people when they need it most, dedicato all’utilizzo dell’intelligenza artificiale nel supporto psicologico degli utenti.

Secondo quanto spiegato dall’azienda, la procedura potrebbe scattare in particolare in uno scenario, quello delle minacce verso altri. Laddove emergessero intenzioni concrete in tal senso, la chat può essere esaminata da revisori umani e, nei casi più critici, trasmessa alla polizia.

Nel caso, invece, di eventuali tendenze autolesioniste degli utenti (intenti suicidi o altri comportamenti), la conversazione non verrà mai inoltrata alle autorità in rispetto della privacy. In questi casi ChatGPT continuerà a rispondere con empatia e di fornire contatti utili, come numeri di emergenza o associazioni di supporto.

Un’evoluzione sistemica

È un cambiamento molto significativo. Fino a oggi OpenAI aveva già parlato della possibilità che le conversazioni venissero lette da revisori per motivi di sicurezza o condivise solo a fronte di richieste legali formali (ad esempio da parte di un tribunale). Mai, però, aveva dichiarato in modo esplicito che avrebbe potuto per sua scelta coinvolgere direttamente le forze dell’ordine.

Quella di OpenAI è addirittura una decisione sensazionale nel panorama delle chat conversazionali, sia con AI che senza. Meta con Whatsapp e la sua crittografia end-to-end, Telegram con il suo blindatissimo protocollo proprietario MTProto, le policy ultra restrittive di Apple sugli iPhone: tutti elementi che da anni vanno nella direzione di impedire tassativamente a terzi di avere accesso alle conversazioni dei singoli utenti, perfino in seguito alla loro scomparsa.

Una nuova idea di fiducia?

La novità si inserisce in un quadro più ampio: l’AI è sempre più utilizzata non solo come strumento di lavoro ma come spazio di confidenza personale. OpenAI cerca dunque di proporre un piccolo quadro di regolamentazione per le casistiche più rischiose.

Tuttavia, l’annuncio solleva inevitabilmente interrogativi sulla privacy e il controllo. Chi stabilisce cosa sia “una minaccia concreta”? Fino a che punto gli utenti possono sentirsi liberi di parlare apertamente con un sistema che, in determinate circostanze, potrebbe trasformarsi in un canale verso la polizia?

Ѐ una novità dunque che segna un precedente molto significativo e apre a una riconfigurazione della fiducia implicita tra gli utenti e le aziende del tech. Per quanto limitata a casi che coinvolgono la sicurezza collettiva, qualcuno potrebbe vedere in questa novità il primo tassello di un sistema in cui le AI fanno da intermediari tra le singole persone e gli organi di vigilanza o autorità di controllo. Non tutti potrebbero sentirsi a loro agio con uno scenario simile.


Leggi altri articoli sulla sorveglianza:

🔎


Ultime news


Getty Images e Perplexity hanno firmato un accordo di licenza sull’uso di immagini

Grazie all'accordo Perplexity potrà integrare la libreria immagini di Getty…

Getty Images e Perplexity hanno firmato un accordo di licenza sull’uso di immagini
Vogliono creare una copia della società: l’accusa di Palantir verso due suoi ex ingegneri

Palantir ha denunciato due suoi ex dipendenti che avrebbero avvantaggiato…

Vogliono creare una copia della società: l’accusa di Palantir verso due suoi ex ingegneri
Secondo la Federal Reserve il boom dell’AI non è paragonabile alla bolla delle dot-com

A differenza delle dot-com degli anni 90', le società di…

Secondo la Federal Reserve il boom dell’AI non è paragonabile alla bolla delle dot-com

In Evidenza


Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano

Gli ideatori, Lucia Cenetiempo e Massimiliano Di Blasi, ci raccontano…

Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano
Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Privacy policy| Cookie policy| Cookie setting| © 2025