Resuscitare i ricordi: viaggio alla frontiera del ‘dopo-vita artificiale’, dove l’AI supera la morte

Abbiamo parlato con Fabrizio Degni di uno dei fenomeni centrali della rivoluzione AI

7 min.

Resuscitare i ricordi: viaggio alla frontiera del ‘dopo-vita artificiale’, dove l’AI supera la morte

Il fenomeno dei ‘compagni artificiali’ portato alla ribalta dalle curiosità e spesso dalle polemiche verso app come Replika e Character.ai ha puntato l’attenzione su funzioni dell’intelligenza artificiale dirette a fornire compagnia all’essere umano. Amici virtuali, AI avatar, digital companion, etichette che si stanno moltiplicando, come allo stesso modo si sta ampliando l’industria dell’intrattenimento affettivo. Fa parte di questo mondo anche la digital afterlife industry, un segmento di mercato dell’AI companion dedicato al ricreare la relazione con una persona defunta. Ecco, dunque, che dopo aver adeguatamente personalizzato un’app dedicata, si ha la possibilità di parlare nuovamente con un parente, amico, compagno, tramite una personalizzazione forte dell’interfaccia utente perfettamente calibrata sulle metriche del caro estinto. Oggi sentiamo spesso parlare di griefbot, deadbot, memorial chatbot, legacy avatar, resurrection bot e tutta una serie di sistemi del dolore che avrebbero lo scopo di prolungare la relazione con qualcuno che non c’è più. Una frontiera che sta facendo molto discutere, a cui Fabrizio Degni, Ethics and Governance AI Researcher, ha recentemente dedicato un paper, The Afterlife in the Age of AI. A psychological, ethical, and technological analysis. Ne abbiamo parlato con lui per comprendere meglio questo fenomeno.

Come è nata l’idea di questo studio, che personalmente ritengo sia uno dei paper più sfidanti, visionari e drammaticamente (nel senso etimologico del termine) attuali nel mondo delle applicazioni AI?

La scintilla deriva dall’osservazione che i cosiddetti “digital remains” prolungano la presenza sociale oltre la morte, sovrapponendosi a processi di lutto, identità e governance dei dati ma in un contesto normativo alquanto opinabile, che molto lascia sperimentare senza linee guida chiare e definitive, mancava un quadro psicologico-etico integrato che collegasse “l’attaccamento” con il quadro normativo, per quanto ad alto livello ed il pluralismo culturale. Il paper, quindi, nasce per anticipare dilemmi, proporre delle strategie di governance (il framework) prima che il mercato li consolidi.

Nel paper mostri come le simulazioni post-mortem possano agevolare l’elaborazione del lutto in persone con attaccamento sicuro, ma rischino di alimentare dipendenze disfunzionali nelle persone con profili più ansiosi. Quali scelte di design, secondo te, sono più efficaci per modulare questi effetti psicologici contrastanti?

La dicotomia è sicuramente tra l’elaborazione del lutto e la dipendenza che tali soluzioni possono recare, per cui è necessario un bilanciamento che prenda in considerazione tanto il razionale tecnico quanto l’implementazione pratica. Ad esempio, la frequenza di contatto adattiva valuta proprio l’iper-interazione come metro per l’attaccamento ansioso su cui è opportuno intervenire con un progressivo colldown, non brusco, non da switch, ma accompagnato verso uno stato di “normalità”. Gli indicatori di artificialità, d’altro canto, sono utilizzabili per ridurre quella “uncanny valley of identity” che favorisce accettazione di morte reale laddove con l’IA o le tecnologie moderne questo stato di accettazione sia costantemente rimesso in discussione. Non c’è in definitiva un indicatore più significante dell’altro, è il tutto a completare il framework.

Tra le proposte di linee guida sulla revocabilità del consenso e sui confini temporali delle simulazioni digitali, proponi alcune ipotesi. Come immagini possano funzionare meccanismi concreti che garantiscano la disattivazione automatica di un avatar quando, a distanza di tempo, l’azienda che lo ospita potrebbe non esistere più o magari aver cambiato modello di business?

La strada a mio avviso percorribile attualmente è un fiduciary escrow: la chiave crittografica dell’avatar e della sua memoria digitale è custodita da un ente terzo e si attiva soltanto se la piattaforma, una volta l’anno, dimostra di essere viva e conforme alla licenza. Se l’ente non riceve questo “ping”, la simulazione viene immediatamente cifrata e resa inaccessibile. In parallelo, uno smart contract on-chain può stabilire una data di scadenza o agganciarsi a un oracolo che segnala la liquidazione della società. Tutto ciò confluisce in un registro pubblico europeo, così da garantire anche la portabilità dei dati agli eredi, in linea con Data Act e GDPR. Fondamentale, comunque, che siano previsti organi indipendenti di monitoraggio ed auditing.

Mi piace molto la tua geniale espressione “uncanny valley of identity” (mi ha ricordato l’altrettanto geniale Uncanny Valley di Hiroshi Ishiguro) per descrivere la dissonanza che sorge nelle interazioni prolungate con avatar che non evolvono. Quali progressi di ricerca, secondo te, possono essere più promettenti per colmare questa discrepanza senza sfociare in una “falsificazione” dell’identità?

La proposta è far maturare l’avatar, perché anche qui, il dilemma etico è se lasciare all’interno di una memoria limitata, ma limitante, il limitato, l’interazione, o lasciar evolvere, con un modello controfattuale, questo “avatar”. Un modello può combinare abitudini, valori e gusti già documentati con proiezioni probabilistiche di evoluzione («cosa avrebbe letto quest’anno?»), marcando però ogni novità come speculativa. Lato contenuti, un classificatore etico filtra output incoerenti con la biografia reale. La scelta deve in tal caso essere di colui il quale interagisce con tali modelli per una “replica statica” e “simulazione esplorativa”, avendo consapevolezza di questi differenti livelli.

Il tema del framework religioso e della congruenza culturale sono centrali accanto a dimensioni psicologiche ed etiche. Pensa sia possibile sviluppare una metrica computazionale che valuti in tempo reale l’allineamento di un avatar ai rituali locali e ai credo religiosi, e ne adatti il comportamento?

Ritengo di sì, ed è più di un esercizio teorico: immagina un grafo di conoscenza in cui siano codificati precetti liturgici, feste, formule di saluto, tabù alimentari, persino i gesti corporei consentiti o vietati in una determinata tradizione. Ogni volta che l’avatar produce un testo, un gesto o un’espressione facciale, quell’output viene proiettato su quel grafo e riceve un coefficiente di scostamento. Se il coefficiente supera una soglia, per esempio perché l’avatar rivolge un “che riposi in pace” a un credente ebraico ortodosso che non utilizza quell’espressione, il sistema reindirizza la risposta, o chiede conferma, prima che l’errore si manifesti all’utente. In pratica funge da traduttore culturale istantaneo. Eticamente è un’operazione che incrocia la logica dei diritti (preservare la libertà religiosa), la cura relazionale, perché evita micro-offese nel momento di massimo dolore, e il principio di non-maleficenza del principlismo. Il rischio, naturalmente, è ridurre la fede a un prontuario algoritmico, in antitesi proprio con principi e spirito che mi hanno animato nella ricerca, e per prevenirlo occorrono comitati teologico-etnografici che aggiornino di continuo quel grafo e ricordino che la spiritualità non è un dizionario statico.

Nel paper ipotizzi che le simulazioni after-life ricadano nella categoria high-risk dell’AI Act. Se potessi proporre una “regulatory sandbox” europea, quali indicatori chiave di successo inseriresti per bilanciare innovazione commerciale, tutela della dignità post-mortem e interoperabilità transfrontaliera?

Inizierei da un indicatore clinico: la variazione, misurata con una scala validata come la Prolonged Grief-13, del dolore da lutto prima e dopo l’uso dell’avatar. Se non c’è beneficio terapeutico, l’esperimento fallisce qualunque sia il business. In parallelo monitorerei un indice di dipendenza, calcolato sulla base del tempo medio di connessione e dei sintomi di ritiro quando l’utente viene invitato a prendersi una pausa; quel valore deve restare sotto una soglia di sicurezza, altrimenti si sospende il servizio. Terzo asse, la trasparenza: almeno nove utenti su dieci devono essere consapevoli di interagire con un costrutto artificiale, altrimenti l’esperienza scivola nell’inganno emotivo. Sul piano giuridico la revoca del consenso dovrà essere effettiva nell’arco di quarantotto ore, con audit pubblico che certifichi la distruzione o la pseudonimizzazione irreversibile dei dati. Infine, c’è la dimensione della portabilità: la stessa simulazione deve poter essere migrata senza frizioni tra le diverse giurisdizioni europee, dimostrando conformità simultanea a GDPR, DSA e AI ACT (Regolamento EU 2024/1689). Solo se questi pilastri reggono, la sandbox guadagna la patente di legittimità etica e regolatoria.

Esistono già diversi servizi sul mercato che intervengono a vari livelli nella dimensione afterlife, ma non disponiamo ancora di sufficienti dati per analizzare compiutamente questo uso: cosa ti aspetti che potrebbe presentare l’evoluzione di questo mercato, se mai un’evoluzione ci sarà?

Stiamo parlando di che cosa significa morire nell’era digitale e di come si può continuare ad amare senza restare intrappolati in un loop di intangibilità: nel breve periodo vedremo un fiorire di soluzioni ibride, quasi artigianali, vendute come estensioni dei servizi funebri, pacchetti che abbinano la cerimonia tradizionale a una capsula digitale con video, chat e archivi fotografici. Quando i primi casi di abuso, si pensi a un deepfake del nonno usato per truffare i nipoti, raggiungeranno la cronaca, il mercato dovrà maturare in fretta: le famiglie cercheranno garanzie e si affideranno a piattaforme che mostrano certificazioni etiche e audit indipendenti: a tal proposito a mio avviso sarebbe interessante avere a livello governativo proprio un bollino di certificazione rilasciato da un organo come l’EU o altre regioni, preservando principi di adozione comuni e localizzato nel rispetto delle culture e tradizioni locali. A quel punto si stabiliranno due modelli: uno commerciale, B2B2C, basato su abbonamenti e su licenze white-label offerte ai social network, l’altro gestito da fondazioni o cooperative non-profit, pensato per custodire la memoria collettiva senza logiche di upselling. Nel lungo periodo, se la regolazione resterà solida e la fiducia pubblica non crollerà, la curva di adozione seguirà la stessa traiettoria che hanno avuto le polizze vita: da servizio di nicchia a componente quasi rituale del percorso di fine vita. Se invece la governance fallirà, le simulazioni post-mortem resteranno un accessorio curioso, confinato alle fiere di tecnologia, citato più come monito che come opportunità e, come la letteratura o il mondo cinematografico ci insegnano, adottato da pochi facoltosi in un regime di totale non-governance e tutela.


Ultime news


Data center nello spazio? Secondo Jeff Bezos è possibile

L'idea promossa da Bezos sta prendendo piede in tutto il…

Google ha lanciato la piattaforma Gemini Enterprise per le aziende

L'applicazione permette ai dipendenti, fra le altre cose, di creare…

L’ex premier britannico Sunak assumerà ruoli di consulenza in Microsoft e Anthropic

Le attività di Sunak saranno fortemente attenzionate da un ente…

L’imperialismo digitale di Israele e altre storie generative | Weekly AI

Weekly AI è la rassegna settimanale di AI news sulle…

In Evidenza


Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano

Gli ideatori, Lucia Cenetiempo e Massimiliano Di Blasi, ci raccontano…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

Privacy policy| Cookie policy| Cookie setting| © 2025

Exit mobile version