Trends

News - Trend trimestrale

Volume trimestrale

... ..%

Volume semestrale

... ..%

L’intelligenza artificiale migliora l’accuratezza di Wikipedia?

4 minuti

Paolo Marinoni 26 Ottobre 2023
4 minuti

L’intelligenza artificiale potrebbe dare una mano a “ripulire” Wikipedia, l’enciclopedia online scritta dagli utenti.

Un nuovo sistema, SIDE, sviluppato dalla società londinese Samaya AI e dal centro tedesco Amazon Alexa AI di Tubingen, è infatti in grado di individuare fonti inaffidabili o imprecise presenti nelle pagine di Wikipedia e poi cercare sul web alternative migliori.

Lo studio

“La verificabilità è una policy dei contenuti fondamentale su Wikipedia: le affermazioni devono essere supportate da citazioni – si legge nell’abstract dello studio “Improving Wikipedia verifiability with AI”, pubblicato sulla rivista Nature Machine IntelligenceMantenere e migliorare la qualità dei riferimenti di Wikipedia è una sfida importante e c’è un urgente bisogno di strumenti migliori per assistere gli esseri umani in questo sforzo”.

I ricercatori, dunque, hanno voluto dimostrare come l’intelligenza artificiale possa contribuire al miglioramento della verificabilità delle informazioni riportate sull'”enciclopedia libera”. Lo studio, condotto anche dall’italiano Fabio Petroni di Samaya AI e dai ricercatori del laboratorio Fundamental AI Research di Meta, presenta un sistema, chiamato Side, addestrato a riconoscere le fonti migliori analizzando gli articoli in evidenza su Wikipedia, quelli che ricevono molta attenzione da redattori e moderatori.

I nostri risultati indicano che un sistema basato sull’intelligenza artificiale potrebbe essere utilizzato, insieme agli esseri umani, per migliorare la verificabilità di Wikipedia“.

Così, SIDE riesce a scovare le pagine con riferimenti di bassa qualità e a proporne di più credibili, mettendoli in ordine di affidabilità.

Come funziona SIDE?

Il flusso decisionale di SIDE, come spiegato all’interno dello stesso paper, funziona in questo modo:

  • il claim (contenuto Wikipedia) taggato come “verificazione fallita” da un editor umano o dal sistema viene inviato al motore di recupero Sphere, che produce un elenco di potenziali documenti “candidati” per la sostituzione, tratti dal corpus Sphere;
  • il motore di verifica classifica i documenti candidati e la citazione originale con riferimento al claim;
  • se la citazione originale non si classifica più in alto rispetto ai documenti candidati, viene suggerita una nuova citazione dai documenti recuperati.
intelligenza-artificiale-wikipedia-side-1
Immagine tratta dal paper “Improving Wikipedia verifiability with AI”

L’intelligenza artificiale meglio degli umani nella selezione delle fonti su Wikipedia?

I ricercatori hanno poi mostrato i risultati di SIDE a un gruppo di utenti dell’enciclopedia online. Il 21% delle volte, gli utenti hanno preferito le citazioni trovate dall’AI; una volta su dieci, invece, quelle già presenti sono state ritenute migliori e il 39% delle volte gli utenti non hanno preferito alcuna delle due fonti. Nel 30% dei casi, infine, non è stata raggiunta una chiara maggioranza.

intelligenza-artificiale-wikipedia-side-2
Immagine tratta dallo stesso paper

La speranza dei ricercatori è dunque che il nuovo sistema possa efficientare il lavoro dei redattori con riferimento alla verificabilità dei contenuti presenti nelle voci sulla piattaforma. Ma ciò potrà avvenire solo se il tool verrà utilizzato in modo appropriato.


In Evidenza


Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Chi fermerà l’AI? Riflessione sull’appello di Musk

Elon Musk e altri mille esperti chiedono una pausa di…

Elon Musk e altri mille esperti: “Allarme intelligenza artificiale”

Elon Musk e altri mille esperti hanno chiesto di sospendere…

Microsoft 365 Copilot, un’AI generativa per la produttività

Microsoft ha lanciato 365 Copilot, un servizio di intelligenza artificiale…

OpenAI rilascia GPT-4, più potente e multimodale

GPT-4 è arrivato. Un modello multimodale e con 100 trilioni…