OpenAI ha annunciato per la prima volta che alcune conversazioni su ChatGPT, se ritenute particolarmente preoccupanti, potranno essere inoltrate alle forze dell’ordine.
Quando “le persone hanno bisogno”
La dichiarazione è arrivata il 26 agosto 2025 in un post ufficiale intitolato Helping people when they need it most, dedicato all’utilizzo dell’intelligenza artificiale nel supporto psicologico degli utenti.
Secondo quanto spiegato dall’azienda, la procedura potrebbe scattare in particolare in uno scenario, quello delle minacce verso altri. Laddove emergessero intenzioni concrete in tal senso, la chat può essere esaminata da revisori umani e, nei casi più critici, trasmessa alla polizia.
Nel caso, invece, di eventuali tendenze autolesioniste degli utenti (intenti suicidi o altri comportamenti), la conversazione non verrà mai inoltrata alle autorità in rispetto della privacy. In questi casi ChatGPT continuerà a rispondere con empatia e di fornire contatti utili, come numeri di emergenza o associazioni di supporto.
Un’evoluzione sistemica
È un cambiamento molto significativo. Fino a oggi OpenAI aveva già parlato della possibilità che le conversazioni venissero lette da revisori per motivi di sicurezza o condivise solo a fronte di richieste legali formali (ad esempio da parte di un tribunale). Mai, però, aveva dichiarato in modo esplicito che avrebbe potuto per sua scelta coinvolgere direttamente le forze dell’ordine.
Quella di OpenAI è addirittura una decisione sensazionale nel panorama delle chat conversazionali, sia con AI che senza. Meta con Whatsapp e la sua crittografia end-to-end, Telegram con il suo blindatissimo protocollo proprietario MTProto, le policy ultra restrittive di Apple sugli iPhone: tutti elementi che da anni vanno nella direzione di impedire tassativamente a terzi di avere accesso alle conversazioni dei singoli utenti, perfino in seguito alla loro scomparsa.
Una nuova idea di fiducia?
La novità si inserisce in un quadro più ampio: l’AI è sempre più utilizzata non solo come strumento di lavoro ma come spazio di confidenza personale. OpenAI cerca dunque di proporre un piccolo quadro di regolamentazione per le casistiche più rischiose.
Tuttavia, l’annuncio solleva inevitabilmente interrogativi sulla privacy e il controllo. Chi stabilisce cosa sia “una minaccia concreta”? Fino a che punto gli utenti possono sentirsi liberi di parlare apertamente con un sistema che, in determinate circostanze, potrebbe trasformarsi in un canale verso la polizia?
Ѐ una novità dunque che segna un precedente molto significativo e apre a una riconfigurazione della fiducia implicita tra gli utenti e le aziende del tech. Per quanto limitata a casi che coinvolgono la sicurezza collettiva, qualcuno potrebbe vedere in questa novità il primo tassello di un sistema in cui le AI fanno da intermediari tra le singole persone e gli organi di vigilanza o autorità di controllo. Non tutti potrebbero sentirsi a loro agio con uno scenario simile.
Leggi altri articoli sulla sorveglianza:
🔎
- OpenAI allenta il controllo sui temi sensibili
- Google revoca il divieto sull’uso dell’AI per armi e sorveglianza
- I rapporti della polizia li scrive l’intelligenza artificiale
- In Gran Bretagna le ‘telecamere poliziotto’ sono già realtà
- Negli USA hanno arrestato una donna per l’errore di un’AI
- WhoFi: un team romano ha creato un sistema che riconosce le persone con un segnale WiFi
- Altri 275 mln per la startup di sorveglianza Flock Safety; valutazione a 7,5 mld
- L’AI “lombrosiana” che prevede l’orientamento politico a partire dal volto
- Senza biglietto in metropolitana? Ti scova l’intelligenza artificiale