OpenAI ha dichiarato che da ora, se vuole, potrà inviare le tue conversazioni con ChatGPT alla polizia

Solo in alcuni casi ovviamente: ma un'evoluzione sistemica di tale portata solleva importanti dubbi su privacy e controllo

4 min.

OpenAI ha dichiarato che da ora, se vuole, potrà inviare le tue conversazioni con ChatGPT alla polizia

OpenAI ha annunciato per la prima volta che alcune conversazioni su ChatGPT, se ritenute particolarmente preoccupanti, potranno essere inoltrate alle forze dell’ordine.

Quando “le persone hanno bisogno”

La dichiarazione è arrivata il 26 agosto 2025 in un post ufficiale intitolato Helping people when they need it most, dedicato all’utilizzo dell’intelligenza artificiale nel supporto psicologico degli utenti.

Secondo quanto spiegato dall’azienda, la procedura potrebbe scattare in particolare in uno scenario, quello delle minacce verso altri. Laddove emergessero intenzioni concrete in tal senso, la chat può essere esaminata da revisori umani e, nei casi più critici, trasmessa alla polizia.

Nel caso, invece, di eventuali tendenze autolesioniste degli utenti (intenti suicidi o altri comportamenti), la conversazione non verrà mai inoltrata alle autorità in rispetto della privacy. In questi casi ChatGPT continuerà a rispondere con empatia e di fornire contatti utili, come numeri di emergenza o associazioni di supporto.

Un’evoluzione sistemica

È un cambiamento molto significativo. Fino a oggi OpenAI aveva già parlato della possibilità che le conversazioni venissero lette da revisori per motivi di sicurezza o condivise solo a fronte di richieste legali formali (ad esempio da parte di un tribunale). Mai, però, aveva dichiarato in modo esplicito che avrebbe potuto per sua scelta coinvolgere direttamente le forze dell’ordine.

Quella di OpenAI è addirittura una decisione sensazionale nel panorama delle chat conversazionali, sia con AI che senza. Meta con Whatsapp e la sua crittografia end-to-end, Telegram con il suo blindatissimo protocollo proprietario MTProto, le policy ultra restrittive di Apple sugli iPhone: tutti elementi che da anni vanno nella direzione di impedire tassativamente a terzi di avere accesso alle conversazioni dei singoli utenti, perfino in seguito alla loro scomparsa.

Una nuova idea di fiducia?

La novità si inserisce in un quadro più ampio: l’AI è sempre più utilizzata non solo come strumento di lavoro ma come spazio di confidenza personale. OpenAI cerca dunque di proporre un piccolo quadro di regolamentazione per le casistiche più rischiose.

Tuttavia, l’annuncio solleva inevitabilmente interrogativi sulla privacy e il controllo. Chi stabilisce cosa sia “una minaccia concreta”? Fino a che punto gli utenti possono sentirsi liberi di parlare apertamente con un sistema che, in determinate circostanze, potrebbe trasformarsi in un canale verso la polizia?

Ѐ una novità dunque che segna un precedente molto significativo e apre a una riconfigurazione della fiducia implicita tra gli utenti e le aziende del tech. Per quanto limitata a casi che coinvolgono la sicurezza collettiva, qualcuno potrebbe vedere in questa novità il primo tassello di un sistema in cui le AI fanno da intermediari tra le singole persone e gli organi di vigilanza o autorità di controllo. Non tutti potrebbero sentirsi a loro agio con uno scenario simile.


Leggi altri articoli sulla sorveglianza:

🔎


Ultime news


Google ha lanciato un aggiornamento del suo strumento di generazione video AI Veo

L'aggiornamento apporta miglioramenti su realismo, controllo e continuità nelle scene…

Il paradosso di OpenAI: è sempre più centrale ma perde miliardi di dollari

I costi sono ancora fuori controllo, ma secondo Altman è…

Meta si affida alle infrastrutture di Arm per le raccomandazioni AI sulle sue piattaforme

L'intesa prevede un ampio utilizzo delle architetture di Arm all'interno…

Anthropic ha lanciato una nuova versione del modello Haiku

Secondo l'azienda Haiku 4.5 offre prestazioni simili a Sonnet 4…

Lo Zugzwang di Google

Integrando l'AI nella ricerca, Google mette in crisi gli editori,…

In Evidenza


Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano

Gli ideatori, Lucia Cenetiempo e Massimiliano Di Blasi, ci raccontano…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

Privacy policy| Cookie policy| Cookie setting| © 2025

Exit mobile version