OpenAI teme che ChatGPT possa insegnare il ghosting e studia i rischi di dipendenza emotiva

OpenAI ha pubblicato un rapporto in cui mette in guardia dai rischi di 'antropomorfizzazione e dipendenza emotiva' della sua tecnologia.

4 min.

OpenAI teme che ChatGPT possa insegnare il ghosting e studia i rischi di dipendenza emotiva

OpenAI ha pubblicato un rapporto di nome ‘GPT-4o System Card‘ in cui vengono delineate tutte le procedure e analisi di sicurezza svolte prima del rilascio di GPT-4o. Tra questi colpisce il paragrafo sui rischi di ‘antropomorfizzazione e dipendenza emotiva‘, in cui l’azienda mette in guardia gli utenti dall’attribuire alla sua tecnologia comportamenti e caratteristiche simili a quelle umane, in particolare nelle sue versioni audio. Gli effetti sono letteralmente senza precedenti.

La fiducia nella finzione

L’azienda in particolare lancia un allarme sulla commistione tra fiducia relazionale e la presenza alle allucinazioni. Se già le allucinazioni possono creare dei falsi di grande diffusione nelle versioni più robotiche tra le AI, figuriamoci che impatto possono avere quando sono unite a una empatia ottimamente riprodotta.

La recente letteratura sull’intelligenza artificiale applicata si è concentrata ampiamente sulle ‘allucinazioni‘ – riporta il rapporto – che disinformano gli utenti durante le loro comunicazioni con il modello e potenzialmente determinano una fiducia mal riposta. La generazione di contenuti attraverso una voce umana ad alta fedeltà può esacerbare questi problemi, portando a una fiducia sempre più mal calibrata“.

Connessioni innocue… per ora

OpenAI ha notato durante alcuni test che talvolta gli utenti lasciavano già intendere un legame che andasse oltre quello ad un semplice strumento, attraverso l’uso di frasi che denotavano la creazione di un legame emotivo.

Gli utenti – scrive OpenAI – utilizzavano un linguaggio che potrebbe indicare la formazione di connessioni con il modello. Ad esempio, questo include un linguaggio che esprime legami condivisi, come ‘Questo è il nostro ultimo giorno insieme’. Sebbene queste istanze appaiano benigne, segnalano la necessità di un’indagine continua su come questi effetti potrebbero manifestarsi in periodi di tempo più lunghi.

Inutile specificare gli effetti pericolosissimi di questi legami, soprattutto negli individui più fragili o solitari.La socializzazione di tipo umano con un modello di AI può produrre esternalità che hanno un impatto sulle interazioni tra esseri umani. Ad esempio, gli utenti potrebbero formare relazioni sociali con l’AI, riducendo il loro bisogno di interazione umana, potenzialmente a vantaggio di individui solitari ma potenzialmente influenzando relazioni sane“.

AI che educano al ghosting?

Un ulteriore rischio interessante individuato da OpenAI è quello dell’emulazione. L’azienda in particolare descrive il caso in cui i soggetti interiorizzino gli schemi relazionali tipici dell’interazione con la macchina (ossia quelli in cui è interamente l’utente ad avere il controllo della relazione), trasferendoli nella propria vita reale. OpenAI così ipotizza che un pericolo possa essere quello di educare gli utenti ad ‘accendere e spegnere’ le relazioni o a ‘pilotarle’ a piacimento, un po’ come già avviene nella pratica del ghosting (quando le persone decidono di sparire senza dimostrare empatia, lasciando effetti psicologici profondi).

L’interazione estesa con il modello potrebbe influenzare le norme sociali. Ad esempio, i nostri modelli sono deferenti, consentendo agli utenti di interrompere e ‘prendere il microfono’ in qualsiasi momento, il che, sebbene previsto per un’AI, sarebbe anti-normativo nelle interazioni umane“.

Più ricordi più dipendenza

Non è finita qui. Tra gli elementi da cui ChatGPT mette in guardia ci sono proprio quelli di cui va più fiera nella progettazione del chatbot. Su tutti la possibilità di memorizzare e ricordare i dettagli chiave delle conversazione, tipica di ChatGPT-4o. “Crea sia un’esperienza di prodotto avvincente – scrivono – sia il potenziale per un’eccessiva dipendenza e affidamento“.

Ipocrisia… rassicurante

Può risultare il fatto che OpenAI analizzi dinamiche simili, tuttavia la somiglianza relazionale con gli esseri umani rimane in primo dei suoi obbiettivi perciò il tutto appare piuttosto paradossale.

OpenAI ha comunque intenzione di studiare ulteriormente il potenziale della dipendenza emotiva e come questa possa guidare il comportamento. I test di Altman e i suoi su quest’area di rischio sono solo all’inizio, procederanno con varie tipologie di utenza e coinvolgeranno anche studi accademici e interni indipendenti.


Ultime news


Salesforce lancia una nuova intelligenza artificiale per aziende

Agentforce 360 permette di sviluppare agenti AI personalizzati che sono…

Salesforce lancia una nuova intelligenza artificiale per aziende
Meta ha assunto il co-fondatore di Thinking Machines Labs Andrew Tulloch

Tulloch in passato ha ricoperto un ruolo in Meta per…

Meta ha assunto il co-fondatore di Thinking Machines Labs Andrew Tulloch
L’Ohio ha presentato una legge per vietare il matrimonio tra umani e intelligenze artificiali

I sistemi di intelligenza artificiale verrebbero giuridicamente considerati “entità non…

L’Ohio ha presentato una legge per vietare il matrimonio tra umani e intelligenze artificiali

In Evidenza


Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano

Gli ideatori, Lucia Cenetiempo e Massimiliano Di Blasi, ci raccontano…

Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano
Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Privacy policy| Cookie policy| Cookie setting| © 2025