OpenAI ha pubblicato un rapporto di nome ‘GPT-4o System Card‘ in cui vengono delineate tutte le procedure e analisi di sicurezza svolte prima del rilascio di GPT-4o. Tra questi colpisce il paragrafo sui rischi di ‘antropomorfizzazione e dipendenza emotiva‘, in cui l’azienda mette in guardia gli utenti dall’attribuire alla sua tecnologia comportamenti e caratteristiche simili a quelle umane, in particolare nelle sue versioni audio. Gli effetti sono letteralmente senza precedenti.
La fiducia nella finzione
L’azienda in particolare lancia un allarme sulla commistione tra fiducia relazionale e la presenza alle allucinazioni. Se già le allucinazioni possono creare dei falsi di grande diffusione nelle versioni più robotiche tra le AI, figuriamoci che impatto possono avere quando sono unite a una empatia ottimamente riprodotta.
“La recente letteratura sull’intelligenza artificiale applicata si è concentrata ampiamente sulle ‘allucinazioni‘ – riporta il rapporto – che disinformano gli utenti durante le loro comunicazioni con il modello e potenzialmente determinano una fiducia mal riposta. La generazione di contenuti attraverso una voce umana ad alta fedeltà può esacerbare questi problemi, portando a una fiducia sempre più mal calibrata“.
Connessioni innocue… per ora
OpenAI ha notato durante alcuni test che talvolta gli utenti lasciavano già intendere un legame che andasse oltre quello ad un semplice strumento, attraverso l’uso di frasi che denotavano la creazione di un legame emotivo.
“Gli utenti – scrive OpenAI – utilizzavano un linguaggio che potrebbe indicare la formazione di connessioni con il modello. Ad esempio, questo include un linguaggio che esprime legami condivisi, come ‘Questo è il nostro ultimo giorno insieme’. Sebbene queste istanze appaiano benigne, segnalano la necessità di un’indagine continua su come questi effetti potrebbero manifestarsi in periodi di tempo più lunghi.
Inutile specificare gli effetti pericolosissimi di questi legami, soprattutto negli individui più fragili o solitari. “La socializzazione di tipo umano con un modello di AI può produrre esternalità che hanno un impatto sulle interazioni tra esseri umani. Ad esempio, gli utenti potrebbero formare relazioni sociali con l’AI, riducendo il loro bisogno di interazione umana, potenzialmente a vantaggio di individui solitari ma potenzialmente influenzando relazioni sane“.
AI che educano al ghosting?
Un ulteriore rischio interessante individuato da OpenAI è quello dell’emulazione. L’azienda in particolare descrive il caso in cui i soggetti interiorizzino gli schemi relazionali tipici dell’interazione con la macchina (ossia quelli in cui è interamente l’utente ad avere il controllo della relazione), trasferendoli nella propria vita reale. OpenAI così ipotizza che un pericolo possa essere quello di educare gli utenti ad ‘accendere e spegnere’ le relazioni o a ‘pilotarle’ a piacimento, un po’ come già avviene nella pratica del ghosting (quando le persone decidono di sparire senza dimostrare empatia, lasciando effetti psicologici profondi).
“L’interazione estesa con il modello potrebbe influenzare le norme sociali. Ad esempio, i nostri modelli sono deferenti, consentendo agli utenti di interrompere e ‘prendere il microfono’ in qualsiasi momento, il che, sebbene previsto per un’AI, sarebbe anti-normativo nelle interazioni umane“.
Più ricordi più dipendenza
Non è finita qui. Tra gli elementi da cui ChatGPT mette in guardia ci sono proprio quelli di cui va più fiera nella progettazione del chatbot. Su tutti la possibilità di memorizzare e ricordare i dettagli chiave delle conversazione, tipica di ChatGPT-4o. “Crea sia un’esperienza di prodotto avvincente – scrivono – sia il potenziale per un’eccessiva dipendenza e affidamento“.
Ipocrisia… rassicurante
Può risultare il fatto che OpenAI analizzi dinamiche simili, tuttavia la somiglianza relazionale con gli esseri umani rimane in primo dei suoi obbiettivi perciò il tutto appare piuttosto paradossale.
OpenAI ha comunque intenzione di studiare ulteriormente il potenziale della dipendenza emotiva e come questa possa guidare il comportamento. I test di Altman e i suoi su quest’area di rischio sono solo all’inizio, procederanno con varie tipologie di utenza e coinvolgeranno anche studi accademici e interni indipendenti.