L’intelligenza artificiale per individuare e contrastare le fake news

L’intelligenza artificiale per individuare e contrastare le fake news

L’AI può essere utilizzata nella battaglia contro la disinformazione per facilitare l’individuazione di fake news. Ne sono un esempio gli strumenti adottati da Facebook e il training dataset PropaNews.

Nonostante l’intelligenza artificiale risulti uno strumento efficace nella creazione e nella diffusione di fake news, questa può, allo stesso tempo, rappresentare un alleato nella lotta alla disinformazione.

Avvalendosi di strumenti tecnologici – soprattutto di quelli basati sull’intelligenza artificiale – è infatti possibile contrastare efficacemente le notizie inesatte presenti sul web, identificandole, classificandole e procedendo alla loro eliminazione, modifica o deindicizzazione. Questo è fattibile grazie all’addestramento dell’AI al riconoscimento automatico di semantiche e modelli comunicativi tipici delle fake news, ma anche alla collaborazione uomo-macchina, dinamica in cui il primo – esperto o ente specializzato nel campo oggetto dell’analisi – interviene successivamente alla seconda per la conferma della notizia falsa da questa individuata in autonomia.

L’approccio di Facebook

I social media – luogo di proliferazione di fake news per eccellenza – stanno continuando a sviluppare strumenti sempre più efficaci nell’identificazione di notizie false.

Facebook, nel 2016, ha lanciato Deeptext, un software che da allora ha rilevato e rimosso con successo circa 60.000 post a settimana. La stessa società ha implementato ulteriori strumenti utili nella lotta alla disinformazione. SimSearchNet++, per esempio, è un modello di analisi e corrispondenza delle immagini capace di abbinare le variazioni con un grado di precisione molto elevato. Il sistema è addestrato utilizzando l’apprendimento auto-supervisionato – in inglese SSL, self-supervised learningun metodo di apprendimento automatico grazie al quale l’AI impara da dati non etichettati e che si basa su una rete neurale artificiale.

L’azienda di Mark Zuckerberg ha inoltre lavorato a una serie di sistemi in grado di prevedere quando due contenuti testuali diversi nella loro struttura sintattica trasmettono lo stesso significato – per esempio “le mascherine sono pericolose” e “le mascherine non sono sicure” – o quando due immagini rappresentano lo stesso oggetto, al fine di eliminare fake news già identificate in altre occasioni. Strumenti utili in questo senso sono LASER e ObjectDNA.

Facebook sta anche lavorando per lo sviluppo di strumenti di contrasto ai deepfake. Nel 2019, per esempio, ha collaborato con altri leader del settore nella Deepfake detection challenge, in occasione della quale sono stati presentati più di 35.000 modelli per l’individuazione di video manipolati tramite AI. I contributi hanno permesso di accelerare il progresso nello sviluppo di uno strumento efficace per l’eliminazione di immagini e video falsi dal web. La strada rimane però ancora in salita.

Cybersecurity

Il training dataset PropaNews

Un approccio interessante è quello di chi ha utilizzato le tecniche di propaganda per addestrare l’AI all’identificazione delle notizie false. È il caso del training dataset PropaNews, una collezione di dati che incorpora tecniche di propaganda – come appelli all’autorità ed esagerazioni – e che è stata usata per addestrare dei fake news detectors (rilevatori di notizie false). Il dataset è stato creato dagli autori di una nuova ricerca (pubblicata nel marzo 2022) che spiega i vantaggi di un approccio simile nello sviluppo di un sistema utile nella lotta alla disinformazione.  

Si legge nell’introduzione al report “Faking fake news for real fake news detection” (“Falsificare notizie false per il rilevamento di vere notizie false”):

“Mentre ci sono state molte ricerche e molti progressi recenti nel rilevamento neurale delle fake news, la difesa contro la disinformazione scritta da esseri umani rimane poco esplorata. Analizzando gli approcci attuali per la generazione di fake news e articoli realizzati dall’uomo, abbiamo scoperto che c’è un divario tra loro, che può spiegare gli scarsi risultati nel rilevamento di notizie false scritte da persone da parte di rilevatori addestrati con dati generati automaticamente”.

La soluzione, per i ricercatori, è stata dunque quella di incorporare esplicitamente negli articoli creati e utilizzati per il training diverse tecniche di propaganda al fine di imitare il modo in cui gli esseri umani creano notizie false. I risultati sono interessanti: l’AI addestrata con PropaNews è dal 7,3% al 12,0% più accurata nel rilevamento della disinformazione scritta da persone rispetto a quella addestrata con dati generati secondo gli attuali approcci.

Una combinazione vincente contro le fake news

La tecnologia, data la mole di informazioni presenti sul web, è molto utile nella semplificazione del processo di identificazione di fake news. Da sola, però, non è ancora in grado – e forse non lo sarà mai – di “scovare” molte delle notizie false presenti online.

Il rilevamento dell’intelligenza artificiale rimane infatti inaffidabile, in quanto si basa esclusivamente su fattori come il testo e i collegamenti online del contenuto oggetto dell’analisi per determinarne la credibilità. Spesso, la distinzione tra notizie vere e false richiede invece conoscenze culturali e sociali pregresse o, talvolta, il semplice buon senso, elementi ancora mancanti agli algoritmi di elaborazione del linguaggio naturale. Le notizie false possono inoltre essere deliberatamente modificate al fine di apparire reali e ciò complica ulteriormente il lavoro dell’AI.

L’intelligenza artificiale può dunque segnalare fonti, testi, immagini, video e svariati contenuti che questa “giudica” come potenzialmente falsi, ma la verifica successiva da parte di essere umani esperti del settore risulta fondamentale. È quindi necessario un lavoro combinato, una collaborazione continua tra tecnologia e supervisione umana per combattere la disinformazione dilagante.


Ultime news


Svezia: 1,5 miliardi di euro per lo sviluppo dell’intelligenza artificiale

Un rapporto della Commissione AI-RFS, che ha evidenziato il rischio…

Svezia: 1,5 miliardi di euro per lo sviluppo dell’intelligenza artificiale
Learning Lab Datacenter, un nuovo corso al Politecnico di Milano

Il corso sui datacenter partirà il prossimo 8 maggio ed…

Learning Lab Datacenter, un nuovo corso al Politecnico di Milano
Parigi si prepara a ospitare un grande summit sull’AI che unirà politica e aziende

Capi di Stato, leader di organizzazioni internazionali, rappresentanti delle aziende:…

Parigi si prepara a ospitare un grande summit sull’AI che unirà politica e aziende
BlackRock assumerà 1200 persone in India per il suo sviluppo AI

La mega società di investimento guarda all'India per potenziare lo…

BlackRock assumerà 1200 persone in India per il suo sviluppo AI
Gemini 2.0, nuove versioni annunciate da Google DeepMind

Aggiornamenti per Google Gemini 2.0, ora disponibile per tutti nella…

Gemini 2.0, nuove versioni annunciate da Google DeepMind

In Evidenza


Chi è Liang Wenfeng, il visionario dietro DeepSeek

Fino a pochi giorni fa nessuno in Occidente aveva mai…

Chi è Liang Wenfeng, il visionario dietro DeepSeek
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
OpenAI: anche Mira Murati lascia

L'abbandono di Murati si aggiunge a quelli di Ilya Sutskever,…

OpenAI: anche Mira Murati lascia
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi
Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Il video di Faraday è stato visto oltre 2,6 milioni…

Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Powered byReputation Manager

Privacy policy| Cookie policy| Cookie setting| © 2025