Trends

News - Trend trimestrale

Volume trimestrale

... ..%

Volume semestrale

... ..%

Fantasmi generativi: una nuova era di ricordi digitali

Etica - Innovazione Paolo Marinoni 27 Febbraio 2024

4 minuti

Paolo Marinoni 27 Febbraio 2024
4 minuti

Immagine del servizio Re;memory

Con l’avanzare dell’intelligenza artificiale generativa, stiamo entrando in una nuova era nella quale potrebbe diventare comune creare rappresentazioni digitali e interattive di persone reali, in vita o persino defunte. A immaginarlo è anche un recente articolo firmato da Google DeepMind e dalla University of Colorado Boulder, che si focalizza sui vantaggi e i rischi che simili pratiche potrebbero generare.

I “fantasmi generativi” presentati nell’articolo, in particolare, sono agenti AI in grado non solo di accedere a contenuti multimediali preesistenti relativi alla persona defunta e di riproporli all’utente, ma anche di generare nuovi contenuti e interazioni che riflettono la personalità, lo stile e le conoscenze di quella persona. Si tratta dunque di duplicati, di cloni digitali – più o meno realistici e multimodali – addestrati sulle informazioni di tali individui, con cui si può interagire post mortem in modalità digitale.

Potenziali benefici

Il concetto di fantasmi generativi apre la strada a diverse possibilità interessanti. Ai rappresentati – che possono persino addestrare direttamente i propri ‘cloni’ AI nel corso della propria vita – potrebbe offrire un modo per preservare la propria eredità e i valori da trasmettere alle generazioni future. Agli amici e ai familiari potrebbe invece fornire conforto e un senso di vicinanza continua con la persona venuta a mancare, permettendo conversazioni e interazioni con il defunto come se fosse ancora in vita.

Per la società in generale, infine, i fantasmi generativi potrebbero fungere da archivi ‘viventi’ di cultura, storia e tradizioni resi facilmente consultabili – in quanto conversazionali – prima che questi elementi vengano persi. Un modo per rendere i contenuti di interesse più agevolmente fruibili, sia con riferimento a personaggi storici sia relativamente a persone care delle quali si desidera preservare la storia personale.

I rischi: tra psicologia, etica e reputazione

Una simile tecnologia, però, solleva anche diverse preoccupazioni e potenziali rischi. A livello individuale, un’AI in grado di simulare la personalità e la mente di una persona cara potrebbe portare a un attaccamento eccessivo alla sua versione digitale e/o ritardare l’elaborazione del lutto da parte di un familiare o di un amico dopo la sua morte.

Un’altra considerazione è che un “generative ghost” non è un semplice motore di ricerca specializzato. Data la natura generativa dei modelli di linguaggio che stanno alla base di questa tecnologia, la macchina è capace di produrre contenuti nuovi, aggiuntivi rispetto alle parole e alle attività pronunciate e condotte dalla persona venuta a mancare mentre era in vita. In questi termini, c’è anche un rischio concreto di rivelare informazioni private o di generare informazioni false sul soggetto rappresentato dall’avatar, rovinandone la reputazione e il ricordo. Si pensi al caso delle allucinazioni, ossia risposte errate, parzialmente o completamente inventate, generate dall’AI, che potrebbero trasmettere un’immagine distorta della persona defunta.

Regole e limitazioni, una scelta di design

Per massimizzare i potenziali benefici e minimizzare i rischi legati a queste tecnologie, sarà fondamentale sviluppare interfacce e linee guida etiche attentamente elaborate.

Le scelte di design giocheranno un ruolo cruciale. Si dovrà scegliere se presentare il fantasma come una ‘reincarnazione’ o una rappresentazione dell’individuo, definire il livello di embodiment fisico (ossia se renderlo estremamente realistico o un semplice chatbot), optare o meno per l’evoluzione nel tempo del modello (e quindi ‘della persona’) attraverso un training continuo che permetta l’apprendimento dalle conversazioni tenute con amici e familiari della persona rappresentata e altre caratteristiche fondamentali.

Si renderà infine necessaria anche la predisposizione di un quadro normativo orientato alla definizione del consenso, alla tutela della privacy e alla garanzia di sicurezza.


In Evidenza


Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Chi fermerà l’AI? Riflessione sull’appello di Musk

Elon Musk e altri mille esperti chiedono una pausa di…

Elon Musk e altri mille esperti: “Allarme intelligenza artificiale”

Elon Musk e altri mille esperti hanno chiesto di sospendere…

Microsoft 365 Copilot, un’AI generativa per la produttività

Microsoft ha lanciato 365 Copilot, un servizio di intelligenza artificiale…

OpenAI rilascia GPT-4, più potente e multimodale

GPT-4 è arrivato. Un modello multimodale e con 100 trilioni…