di Raffaele Gaito
Qualche giorno fa ho pubblicato un video molto diverso dai soliti. Non era un tutorial né un’analisi entusiastica sull’ultima innovazione tecnologica. Era una riflessione, cruda e personale, su ciò che ci sta scivolando tra le mani. Il pretesto? Veo 3, la nuova AI di Google per la generazione video. Il motivo? L’inquietudine.
Veo 3 è un prodigio tecnologico: genera video realistici, ora anche con audio, voci, rumori di fondo, dettagli capaci di ingannare occhi e orecchie. Se finora la generazione video era “solo” affascinante, oggi è diventata indistinguibile dalla realtà. E questo, lo ammetto, mi spaventa.
I temi trattati all’interno dell’articolo
Fidarsi è difficile
Chi mi conosce sa quanto io ami sperimentare: sono uno smanettone, un nerd curioso, affamato di novità. Ma di fronte a certe tecnologie, questo entusiasmo si scontra con una parte più vigile e inquieta di me. Perché, se è vero che la qualità dei contenuti generati da AI è sempre più alta, è altrettanto vero che stiamo entrando in un territorio dove i confini tra vero e falso si assottigliano pericolosamente.
Ecco alcuni esempi creati con Veo 3: stand-up comedy generate da prompt, interviste in strada del tutto artificiali, persino spot pubblicitari e scene di protesta. Tutto falso, tutto AI. Eppure, tutto così maledettamente credibile.
Il punto di svolta per me è stato un momento banale: un amico mi manda un video e io, convinto si trattasse di una creazione AI, cerco subito i segnali del trucco. Era un contenuto reale. Ma la mia mente si era già settata sulla modalità “non fidarti di niente”. Un riflesso istintivo, ormai, da quando queste tecnologie hanno raggiunto tale livello. Se succede a me – che lavoro su questi temi ogni giorno – cosa può accadere a chi non ha gli strumenti critici per decodificare ciò che vede online?
L’urgenza di una nuova alfabetizzazione mediatica
Siamo a un bivio culturale. Serve fare divulgazione. Serve raccontare alle persone che i video che vedono sui social potrebbero non essere veri. Serve un’educazione alla percezione e alla verifica che va ben oltre la semplice etichetta “contenuto generato da AI”. Serve anche – e soprattutto – tecnologia che aiuti. Sistemi di identificazione, watermark digitali, ID univoci che ci dicano chiaramente: questo contenuto non è reale. Google sembra essere tra i primi a lavorarci. Bene, ma non basta.
La responsabilità delle piattaforme (e dei governi)
Non possiamo delegare tutto al buon senso degli utenti. Non è sufficiente che io segnali un video fake se milioni di altri utenti lo condividono ignari. Servono strumenti automatici, algoritmi di riconoscimento, regolamenti chiari. E serve anche una risposta politica, legislativa. Non per bloccare l’innovazione, ma per incanalarla. Come abbiamo fatto con l’auto e le cinture di sicurezza.
Ho parlato spesso di questo tema: pretendere trasparenza dalle big tech è un dovere. Non possiamo fidarci ciecamente di chi sviluppa strumenti tanto potenti da riscrivere la nostra percezione del reale. Servono enti terzi, osservatori indipendenti, meccanismi di controllo. Non è censura. È salvaguardia.
Questa non è una crociata contro l’intelligenza artificiale. È un invito alla consapevolezza. Non sono un catastrofista, ma nemmeno uno che si lascia accecare dalla novità. In mezzo, c’è lo spazio della riflessione critica. E in questo spazio dobbiamo starci tutti. Non solo gli addetti ai lavori. Perché oggi più che mai vale quella frase, generata da un prompt e recitata da un attore inesistente in un video inesistente: “Nothing is real anymore”. Nulla è più reale. Ma noi, almeno, possiamo cercare di restare lucidi.

Veo 3 spopola online: la nuova AI video di Google è iper-realistica. Preoccupa l'effetto fake news
L'estremo realismo e la qualità dei video prodotti dall'AI di…