AI news: il portale di approfondimento sul mondo dell'intelligenza artificiale

Paolo Marinoni 6 Luglio 2022

6 minuti

Intelligenza artificiale: un’alleata o una minaccia per la democrazia?  

L’intelligenza artificiale può essere utilizzata per garantire il funzionamento dei meccanismi democratici, soprattutto per quanto riguarda la democrazia diretta. La sua strumentalizzazione, però, può avere l’effetto opposto.  

Ogni giorno, passiamo in media più di sei ore collegati a internet. Su internet, lavoriamo, studiamo, interagiamo con il mondo gestendo i nostri conti bancari o chattando con gli amici. In rete, si fa anche campagna elettorale e i cittadini si informano – o vengono disinformati – sui punti programmatici dei candidati che andranno a eleggere.  

Internet e, di conseguenza, gli algoritmi di AI ‘sguinzagliati’ online risultano molto utili nella gestione di grandi moli di informazioni e offrono strumenti interessanti nell’analisi dei contenuti sul web. L’applicazione di modelli intelligenti, però, potrebbe nascondere potenziali problematiche, spesso nascenti dalla strumentalizzazione – da parte di persone o enti interessati – dei dati raccolti dagli utenti/cittadini. Un utilizzo distorto che può anche influenzare le scelte democratiche.   

L’intelligenza artificiale al servizio della democrazia: l’esempio della Svizzera 

In Svizzera, i cittadini sono chiamati a esprimere la loro opinione molto frequentemente, ogni tre mesi. Prima di ogni referendum, il dibattito online si accende fino a sconfinare in insulti e minacce. L’intelligenza artificiale, attraverso lo strumento Bot Dog, corre quindi in aiuto. Il sistema viene infatti utilizzato per identificare, ed eventualmente eliminare, post contenenti hate speech (linguaggio d’odio) sui social media. Nonostante il progetto risulti ancora nella sua fase pilota, risulta ad oggi essere efficace.  

Diverse realtà stanno inoltre testando altre potenziali ‘applicazioni democratiche’ dell’AI. Tra i vari strumenti di democrazia diretta, spiccano le proposte di bilancio partecipativo. Si tratta di un progetto attraverso il quale la cittadinanza viene coinvolta direttamente nell’amministrazione del territorio in cui vive. I cittadini, attraverso il bilancio partecipativo, possono dunque proporre progetti da realizzare sul territorio e l’intelligenza artificiale aiuta nella loro analisi e successiva selezione e realizzazione.  

Un altro esempio di strumento di democrazia diretta è rappresentato dalle competizioni per l’economia sostenibile cui diversi cittadini – non necessariamente abitanti della stessa zona geografica – possono partecipare. Le soluzioni proposte e i relativi dati sono dunque liberamente accessibili e possono fungere da base per modelli di AI.  

La strumentalizzazione dell’AI e i rischi per la democrazia 

L’intelligenza artificiale, per quanto utile possa essere per la democrazia diretta, può però avere un effetto polarizzante. L’AI, infatti, seleziona – a seconda dei nostri interessi, desunti dal nostro comportamento digitale passato – le informazioni che ci vengono presentate. Contenuti che ci potrebbero piacere, ma che informano anche le nostre scelte elettorali, rendendoci più o meno estremi nelle nostre posizioni.  

Gli algoritmi che stanno alla base delle piattaforme di social media sono quindi tra i principali ‘selezionatori’ automatici delle notizie che ci vengono presentate. In realtà, però, vi è anche una componente volontaria, costituita da social bot e deep fake, strumenti spesso utilizzati per influenzare e manipolare le controversie politiche online.  

In particolare, i primi possono essere usati per amplificare le opinioni automatizzando diverse comunicazioni. Si pensi, per esempio, al periodo successivo alle elezioni presidenziali americane del 2016 o al post-Brexit. All’epoca, i bot sono stati oggetto di numerose notizie che li hanno rappresentati come l’arma preferita di molti enti e individui esterni che intendevano influenzare le scelte politiche dei cittadini.

brexit

I deep fake, invece, utilizzano l’intelligenza artificiale per creare immagini, video o audio più o meno credibili ritraenti qualunque persona – reale o inventata – per diversi scopi, ma soprattutto per rovinare la reputazione degli avversari politici. Recentemente, questi sono stati usati anche per creare disinformazione in merito alla guerra in Ucraina.

Se tutto può essere manipolato o creato di sana pianta e risultare convincente, un rischio indiretto molto rilevante è la sfiducia che questo genere di contenuti può generare nei cittadini nei confronti di qualsiasi forma di informazione mediata.  

Un altro trend emergente è l’espansione del cosiddetto microtargeting, ossia una forma di pubblicità online profilata che utilizza i nostri dati personali per individuare i nostri interessi. Tale pratica è utile al fine di prevedere e influenzare le nostre azioni. E, se questo viene fatto in ambito politico e non commerciale, può risultare nocivo per la democrazia.  

Cosa si può fare? 

Wojciech Wiewiórowski, Garante europeo della protezione dei dati, ha dichiarato sul tema della comunicazione politica:  

“La comunicazione politica è essenziale per i cittadini, i partiti politici e i candidati per partecipare pienamente alla vita democratica. Per preservare la nostra democrazia, abbiamo anche bisogno di regole forti per combattere la disinformazione, la manipolazione degli elettori e le interferenze con le nostre elezioni. Dobbiamo fare di più se vogliamo affrontare i numerosi rischi che circondano l’uso di tecniche di mira e amplificazione per scopi politici”.  

E ha aggiunto specificamente in merito al microtargeting:  

“La pubblicità mirata può essere utilizzata per influenzare indebitamente gli individui quando si tratta di campagne politiche e processi elettorali democratici. Mentre la campagna politica ‘offline tradizionale’ tende a influenzare il comportamento degli elettori tramite messaggi generalmente conoscibili e controllabili, la pubblicità mirata consente di indirizzare sia i singoli elettori che gruppi di elettori con messaggi su misura, specificamente pensati per esigenze particolari, interessi e valori del target di riferimento”.  

Le parole del Garante fanno eco anche a quanto avanzato alla fine del 2021 dalla Commissione europea. Quest’ultima aveva infatti proposto di porre dei limiti al microtargeting politico delle piattaforme digitali basato su una lista di categorie sensibili. Tra queste, l’orientamento sessuale, l’etnia, le convinzioni politiche e lo stato di salute. Perché il progetto – che prevede anche sanzioni più salate rispetto a quelle disposte dal GDPR– diventi realtà, dovrà però essere approvato sia dal Consiglio europeo sia dal Parlamento.


Articoli simili

L’intelligenza artificiale viene utilizzata sempre di più anche in ambito musicale. Cosa ne sarà dei musicisti in carne e ossa?
16 Luglio 2022

L’AI viene utilizzata in numerosi settori e sostiene i lavoratori. Quali sono, però, i rischi per il lavoro? E quali sono i suoi limiti? 
28 Giugno 2022

Un ingegnere di Google ha dichiarato che il modello conversazionale di Google sarebbe senziente. Ma l'azienda (e gli esperti) negano questa possibilità.
17 Giugno 2022

Dalla finzione alla realtà. Il timore di un AI takeover è condiviso da diversi rappresentanti del settore, ma potrà realmente verificarsi?
3 Giugno 2022

La casa domotica e altri strumenti: come l'intelligenza artificiale può aiutarci nella nostra vita domestica.
6 Maggio 2022