Immagine di Google DeepMind
L’intelligenza artificiale sta rivoluzionando il mondo dell’arte e della creatività. Modelli di AI generativa sempre più avanzati – come Imagen di Google o Midjourney – sono in grado di produrre immagini estremamente realistiche e accattivanti in pochi secondi.
Ma come riconoscere queste opere sintetiche, soprattutto quando appaiono così verosimili? Una sfida complessa per un panorama in rapida e continua evoluzione.
I temi trattati all’interno dell’articolo
La “filigrana” nascosta di SynthID
Per aiutare in questo compito, nasce SynthID, una nuova tecnologia sviluppata da Google Cloud insieme a Google DeepMind in grado di identificare le immagini prodotte dall’AI.
Il servizio funziona attraverso l’inserimento di una sorta di watermark direttamente nei pixel dell’immagine. Si tratta di una ‘filigrana digitale’ impercettibile all’occhio umano, ma rilevabile tramite software e che non può essere rimossa attraverso l’utilizzo di filtri o l’editing.
Generare e identificare con un solo strumento
SynthID è stato rilasciato in versione beta a un gruppo selezionato di clienti Vertex AI che utilizzano Google Imagen, uno dei modelli AI più avanzati in grado di generare immagini fotorealistiche a partire da un semplice prompt testuale.
La tecnologia consente quindi sia di marcare le immagini sintetiche durante la creazione, sia di rilevare successivamente l’eventuale presenza del watermark nel caso in cui l’immagine sia stata creata da Imagen. Il sistema produce dunque tre possibili ‘verdetti’:
- Digital watermark detected: significa che l’immagine è stata probabilmente generata da Imagen;
- Digital watermark not detected: quando è improbabile che l’immagine sia stata generata da Imagen;
- Digital watermark possibly detected: quando gli elementi a disposizione non consentono a SynthID di propendere per la prima o per la seconda opzione.
Vantaggi rispetto alle tecniche tradizionali
I classici watermark, come loghi o testi sovrapposti, sono facilmente rimovibili con tecniche di editing. SynthID, invece, sfrutta il deep learning per inserire watermark solidi (incorporati nei pixel), ma visivamente impercettibili, in grado di resistere anche a modifiche significative.
Secondo Google, questa tecnologia aiuta a lavorare in modo responsabile con i contenuti generati dall’AI. Un simile processo, se adottato anche da altre aziende che si occupano di AI image/video generation, potrebbe infatti prevenire – o perlomeno limitare in modo consistente – disinformazione e frodi.