Anche il vasto universo dei doppiatori si unisce agli appelli per pretendere che l’utilizzo dell’AI generativa nel cinema e nell’intrattenimento non si trasformi in una legalizzazione del furto di dati biometrici.
I temi trattati all’interno dell’articolo
Verso un nuovo intrattenimento
La questione è estremamente complessa.
Il mondo dell’intrattenimento di tutto il mondo vive un periodo di grande apprensione per via dell’incursione dell’AI nelle produzioni. Se fino a pochi anni fa pareva fantascienza, è ad esempio sempre più concreta la prospettiva che, ad accompagnare attori in carne e ossa, si farà largo uso di attori (perlopiù ad oggi comparse) generati tramite l’intelligenza artificiale a partire da immagini già esistenti.
Proprio attorno a questo tema le produzioni hollywoodiane sono bloccate dal più grande sciopero del settore di sempre.
Il caso Clarke
Il doppiaggio è, se possibile, un settore ancora più fragile, già minato professionalmente dall’abbassamento dei salari per realizzazioni sempre più seriali dei prodotti sulle piattaforme di streaming (con conseguenze anche sulla qualità).
Tramite l’uso dell’AI, produzioni grandi e piccole hanno già iniziato a clonare le voci di doppiatori professionisti per utilizzarle in altri prodotti. A maggio, l’attrice e doppiatrice irlandese Remie Michelle Clarke, già al lavoro con marchi rinomati come Mazda, Microsoft e Mastercard, aveva denunciato il furto della sua voce. Il suo timbro era stato copiato all’interno del sito revoicer.com, attribuito a una finta persona di nome Olivia. Gli utenti potevano scaricarla a pagamento e utilizzarla a piacimento.
Timori nel Gaming
Anche il mondo dei videogiochi è investito da questo dibattito. Pochi giorni fa, Paul Eiding, doppiatore statunitense del colonnello Roy Campbell nella serie di videogiochi giapponesi Metal Gear, che ha lavorato anche in molti film di animazione come Cars e Monsters & Co, ha scritto un post di denuncia su Twitter:
“Se non hai un permesso scritto per usare la mia voce, NON HAI IL PERMESSO per usare la mia voce, inclusa la generazione con IA. Farlo è una violazione dei miei diritti e un vero schiaffo in faccia”.
Il suo collega David Hayter, che doppia Solid Snake in Metal Gear Solid, appare meno preoccupato (“Penso che l’AI sarà sempre senz’anima”), ma al tempo stesso ha inveito contro tutti coloro che clonano le voci dei doppiatori per creare senza il loro consenso nuovi dialoghi fuori contesto. “Legalmente, dovremmo essere tutti protetti da questi idioti”.
Nel mondo del gaming, da dieci giorni, tiene banco anche un altro episodio di questo tenore dai risvolti particolarmente allarmanti. I doppiatori del popolare videogioco Skyrim sono rimasti di sasso quando hanno scoperto che le loro voci erano state utilizzate a loro insaputa per realizzare delle mod del gioco (le mod sono modifiche estetiche o funzionali create da professionisti per aggiornare ciclicamente i giochi). Il problema non è solo che gli attori non sono stati pagati per questo, ma anche che le mod in questione erano contenuti per adulti.
“Una volta che si aggiungono contenuti a sfondo sessuale nel mix – ha dichiarato il doppiatore Zane Schacht – la questione del consenso assume un significato completamente nuovo”.
Le società delle AI vocali
In tutta risposta Nexus Mods, una delle piattaforme principali per la pubblicazione di mod, ha dichiarato che i contenuti realizzati con AI generativa possono essere liberamente pubblicati in quanto non violerebbero alcuna regola. Un problema etico da manuale: lo scenario in effetti è piuttosto simile a quello del deepfake, solo con la voce al posto dei volti. Come si sa, una delle orrende conseguenze del deepfake è l’abuso pornografico.
L’uso delle voci nel gaming e nei film è al centro di una rivoluzione guidata da ElevenLabsm, società americana specializzata nell’elaborazione di software per creare sintesi vocali dai suoni naturali tramite modelli di deep learning.
Il tema caldo è, più in generale, quello dell’uso dei dati biometrici. Chi assicura un professionista che, anche previo consenso da parte sua per uno specifico utilizzo, non si abbia un abuso dei suoi dati? E quanto e in che contesti questo abuso (personale o professionale) è controllabile o aggirabile?
Gli scioperi hollywoodiani di questi giorni si riferiscono proprio a questo timore. Se gli sceneggiatori temono una sostituzione che li bypassi in toto, attori per ruoli minori e non solo temono sostituzioni che presuppongano anche la perdita del proprio potere decisionale ed economico sul proprio volto, la propria voce, le proprie movenze.
L’utilizzo dei dati biometrici è uno dei temi al centro dell’AI Act, normativa sull’AI generativa che l’UE sta discutendo in questi mesi e che dovrebbe entrare in vigore nel 2024.