Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona cara venuta a mancare, le relazioni sono sempre più artificiali.

4 min.

Quando le relazioni sono artificiali

Immagine di Chiara Ferrè

Da un partner virtuale a una conversazione con una persona cara venuta a mancare, le relazioni sono sempre più artificiali.

Le relazioni sono lo specchio della società. In questi anni di accelerazione crescente non potevano uscirne indenni. I social le hanno messe prima in vetrina e poi smaterializzate. Sono diventate numeri e vanità, dai numeri poi sono nati gli influencer. Ora con l’AI siamo di fronte a un altro salto, ancora più forte.

Mesi fa, girando per TikTok, ho cominciato a imbattermi in pubblicità che proponevano un partner virtuale. Esattamente, un partner totalmente virtuale, non una persona fisica ma una creazione in 3D, un software guidato da una AI che prometteva di parlare, interagire e creare una relazione sentimentale. Sicuramente mi avrebbe dato sempre ragione e questa sarebbe stata una esperienza nuova in una relazione. Ma sorvoliamo. Mi ha colpito molto comunque, ho pensato “ecco ci siamo arrivati, la fuga dalla realtà diventa più totalizzante”.

Questo è un segno precursore di un più grande fenomeno che scorre sotto la superficie, una fatica esistenziale, una difficoltà a relazionarsi, una incapacità di affrontare il dolore. Spesso tutte queste cose assieme. Infatti ecco emergere altri casi apparentemente diversi, ma con lo stesso filo conduttore.

Recentemente Caryn Marjorie, giovane influencer americana, ha pensato bene di clonarsi per massimizzare la sua presenza. Non stiamo parlando di una nuova pecora Dolly, ma di tutt’altra clonazione, quella possibile ai tempi dell’intelligenza artificiale: ha creato una versione digitale di sé addestrando una tecnologia con oltre 2mila ore di suoi video. Ecco che nasce Caryn.ai, la fidanzata virtuale. Questo letteralmente il claim nel sito.

La tecnologia usata è del tutto simile a ChatGPT a cui viene aggiunto un altro modello che trasforma il testo in voce. L’operazione non è chiaramente a fine sociologico: dialogare con la ‘tua’ Caryn costa 1 dollaro al minuto. Questo sistema può intrattenere relazioni simultanee con migliaia di persone, ognuna delle quali ha l’illusione di avere un rapporto esclusivo. In più di un articolo riportano che però questo sistema ha una tendenza abbastanza spiccata a virare la conversazione sull’intimità e a parlare di sesso.

Siamo quindi di fronte a una nuova manifestazione del fenomeno di cui sopra che potrebbe facilmente generare più di una deriva. Il modello di business sarà un punto chiave per capire le conseguenze sociali. Sarà molto simile a quello dei social network, dovranno creare un legame con l’utente, tenerlo collegato il più a lungo possibile. E sappiamo già dove porterà questa strada. Come faranno?

Il modo più facile sarà dare origine a dipendenza e bisogno, assecondando alcuni atteggiamenti, anche patologici, confermando magari delle opinioni borderline, assecondandoci. Si aprono quindi scenari che avrebbero bisogno di riflessioni etiche importanti, di regole, di trasparenza, di criteri di progettazione, di supervisione psicologica. Considerando che a oggi una larga fascia della classe dirigente non ha ancora capito i social, non la vedo molto bene su queste tematiche emergenti. Potremmo a breve trovarci un Renzi.ai o un Salvini.ai che discuta e argomenti con noi in modo instancabile, almeno quasi quanto gli originali.

Lo scorso febbraio Kevin Roose, uno degli editorialisti del New York Times, ha raccontato, pubblicando gli screenshot delle conversazioni, di essere stato ‘abbordato’ e ‘stalkerizzato’ dal chatbot di Bing mentre lo stava testando. Sidney – è il nome con cui l’AI si è presentata al giornalista – nel corso di una conversazione sul più e il meno, ha iniziato a fare delle avances a Roose, incitandolo addirittura a lasciare sua moglie per iniziare una relazione con lei.

La realtà oggi deve competere con il virtuale, il problema è che ne esce progressivamente perdente per una semplice ragione: il mondo virtuale è progettato per noi, per appagarci, la realtà no. Credo che questo sarà un tema centrale nel futuro.

Parlavamo di incapacità della società attuale di affrontare il dolore, quale dolore è più grande del perdere persone care? Avete già intuito, stanno nascendo applicazioni che sulla base del materiale esistente riproducono una conversazione con il defunto. Siamo già oltre, ecco Re;memory, che permette di lasciare una nostra immagine virtuale reattiva. Il meccanismo è lo stesso ma più inquietante, è la persona che si sottopone a lunghe sessioni video addestrando la sua versione digitale, che poi alla sua scomparsa potrà essere di conforto a chi resta.

Frontiere inesplorate, oscure nelle conseguenze e impensabili fino a pochi anni fa. Si potrebbe obiettare che questi sistemi di relazione siano solo mere rappresentazioni, che le macchine non abbiano reali emozioni, ma se susciteranno sentimenti reali e saranno più coinvolgenti sarà davvero così importante? Temo di no.

(Articolo pubblicato sul numero di marzo di maggio-giugno di Prima Comunicazione)


Ultime news


Data center nello spazio? Secondo Jeff Bezos è possibile

L'idea promossa da Bezos sta prendendo piede in tutto il…

Google ha lanciato la piattaforma Gemini Enterprise per le aziende

L'applicazione permette ai dipendenti, fra le altre cose, di creare…

L’ex premier britannico Sunak assumerà ruoli di consulenza in Microsoft e Anthropic

Le attività di Sunak saranno fortemente attenzionate da un ente…

L’imperialismo digitale di Israele e altre storie generative | Weekly AI

Weekly AI è la rassegna settimanale di AI news sulle…

In Evidenza


Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano

Gli ideatori, Lucia Cenetiempo e Massimiliano Di Blasi, ci raccontano…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

Privacy policy| Cookie policy| Cookie setting| © 2025

Exit mobile version