OpenAI teme che ChatGPT possa insegnare il ghosting e studia i rischi di dipendenza emotiva

OpenAI teme che ChatGPT possa insegnare il ghosting e studia i rischi di dipendenza emotiva

OpenAI ha pubblicato un rapporto di nome ‘GPT-4o System Card‘ in cui vengono delineate tutte le procedure e analisi di sicurezza svolte prima del rilascio di GPT-4o. Tra questi colpisce il paragrafo sui rischi di ‘antropomorfizzazione e dipendenza emotiva‘, in cui l’azienda mette in guardia gli utenti dall’attribuire alla sua tecnologia comportamenti e caratteristiche simili a quelle umane, in particolare nelle sue versioni audio. Gli effetti sono letteralmente senza precedenti.

La fiducia nella finzione

L’azienda in particolare lancia un allarme sulla commistione tra fiducia relazionale e la presenza alle allucinazioni. Se già le allucinazioni possono creare dei falsi di grande diffusione nelle versioni più robotiche tra le AI, figuriamoci che impatto possono avere quando sono unite a una empatia ottimamente riprodotta.

La recente letteratura sull’intelligenza artificiale applicata si è concentrata ampiamente sulle ‘allucinazioni‘ – riporta il rapporto – che disinformano gli utenti durante le loro comunicazioni con il modello e potenzialmente determinano una fiducia mal riposta. La generazione di contenuti attraverso una voce umana ad alta fedeltà può esacerbare questi problemi, portando a una fiducia sempre più mal calibrata“.

Connessioni innocue… per ora

OpenAI ha notato durante alcuni test che talvolta gli utenti lasciavano già intendere un legame che andasse oltre quello ad un semplice strumento, attraverso l’uso di frasi che denotavano la creazione di un legame emotivo.

Gli utenti – scrive OpenAI – utilizzavano un linguaggio che potrebbe indicare la formazione di connessioni con il modello. Ad esempio, questo include un linguaggio che esprime legami condivisi, come ‘Questo è il nostro ultimo giorno insieme’. Sebbene queste istanze appaiano benigne, segnalano la necessità di un’indagine continua su come questi effetti potrebbero manifestarsi in periodi di tempo più lunghi.

Inutile specificare gli effetti pericolosissimi di questi legami, soprattutto negli individui più fragili o solitari.La socializzazione di tipo umano con un modello di AI può produrre esternalità che hanno un impatto sulle interazioni tra esseri umani. Ad esempio, gli utenti potrebbero formare relazioni sociali con l’AI, riducendo il loro bisogno di interazione umana, potenzialmente a vantaggio di individui solitari ma potenzialmente influenzando relazioni sane“.

AI che educano al ghosting?

Un ulteriore rischio interessante individuato da OpenAI è quello dell’emulazione. L’azienda in particolare descrive il caso in cui i soggetti interiorizzino gli schemi relazionali tipici dell’interazione con la macchina (ossia quelli in cui è interamente l’utente ad avere il controllo della relazione), trasferendoli nella propria vita reale. OpenAI così ipotizza che un pericolo possa essere quello di educare gli utenti ad ‘accendere e spegnere’ le relazioni o a ‘pilotarle’ a piacimento, un po’ come già avviene nella pratica del ghosting (quando le persone decidono di sparire senza dimostrare empatia, lasciando effetti psicologici profondi).

L’interazione estesa con il modello potrebbe influenzare le norme sociali. Ad esempio, i nostri modelli sono deferenti, consentendo agli utenti di interrompere e ‘prendere il microfono’ in qualsiasi momento, il che, sebbene previsto per un’AI, sarebbe anti-normativo nelle interazioni umane“.

Più ricordi più dipendenza

Non è finita qui. Tra gli elementi da cui ChatGPT mette in guardia ci sono proprio quelli di cui va più fiera nella progettazione del chatbot. Su tutti la possibilità di memorizzare e ricordare i dettagli chiave delle conversazione, tipica di ChatGPT-4o. “Crea sia un’esperienza di prodotto avvincente – scrivono – sia il potenziale per un’eccessiva dipendenza e affidamento“.

Ipocrisia… rassicurante

Può risultare il fatto che OpenAI analizzi dinamiche simili, tuttavia la somiglianza relazionale con gli esseri umani rimane in primo dei suoi obbiettivi perciò il tutto appare piuttosto paradossale.

OpenAI ha comunque intenzione di studiare ulteriormente il potenziale della dipendenza emotiva e come questa possa guidare il comportamento. I test di Altman e i suoi su quest’area di rischio sono solo all’inizio, procederanno con varie tipologie di utenza e coinvolgeranno anche studi accademici e interni indipendenti.


Ultime news


OpenAI cancella il lancio di o3 e indica una nuova rotta verso GPT-5

Sam Altman ha illustrato i prossimi passi di OpenAI, annunciando…

OpenAI cancella il lancio di o3 e indica una nuova rotta verso GPT-5
Alibaba collabora con Apple per funzionalità AI sugli iPhone: colosso cinese al +9% in borsa

Apple necessitava di un partner locale e l'ha trovato in…

Alibaba collabora con Apple per funzionalità AI sugli iPhone: colosso cinese al +9% in borsa
L’AI Act nelle imprese, la nostra intervista a Licia Garotti | AI Talks #16

Il 2 febbraio è entrato in vigore l’AI Act e…

L’AI Act nelle imprese, la nostra intervista a Licia Garotti | AI Talks #16
Elon Musk ritirerà la sua proposta d’acquisto se OpenAI resta (in parte) non-profit

La condizione per il ritiro dell'offerta di Elon Musk è…

Elon Musk ritirerà la sua proposta d’acquisto se OpenAI resta (in parte) non-profit
DeepSeek sta spingendo il mercato cinese dei chip

Il successo di DeepSeek favorirà i produttori cinesi di chip…

DeepSeek sta spingendo il mercato cinese dei chip

In Evidenza


Microsoft presenta l’AI L.A.B. 2025 a Milano

Ieri, Microsoft Italia ha presentato il programma AI L.A.B. 2025.…

Microsoft presenta l’AI L.A.B. 2025 a Milano
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
OpenAI: anche Mira Murati lascia

L'abbandono di Murati si aggiunge a quelli di Ilya Sutskever,…

OpenAI: anche Mira Murati lascia
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi
Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Il video di Faraday è stato visto oltre 2,6 milioni…

Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Privacy policy| Cookie policy| Cookie setting| © 2025