Trends

News - Trend trimestrale

Volume trimestrale

... ..%

Volume semestrale

... ..%

L’Europa regola e il resto del mondo avanza

6 minuti

Paolo Marinoni 11 Dicembre 2023
6 minuti

Le aziende dovranno dichiarare se i contenuti sono prodotti dall’intelligenza artificiale. Ma come?


È degli ultimi giorni la notizia relativa all’accordo raggiunto a livello europeo sull’ormai celebre AI Act. Tra i punti inclusi nell’accordo anche l’obbligo per le aziende e per gli altri utilizzatori di indicare se i contenuti sono generati dall’intelligenza artificiale. Questo step fa del vecchio continente un pioniere della regolamentazione nel campo dell’intelligenza artificiale, ma a quale costo?

L’obiettivo principe degli sforzi legislativi europei continua a essere la tutela dei diritti fondamentali, ma porre un freno all’innovazione europea (già non molto florida, se comparata con quella statunitense e cinese) potrebbe condannare l’Unione europea a una perpetua rincorsa. Ed è un peccato, se si considerano le competenze e potenzialità presenti nel nostro territorio.

Trasparenza, tutela dei diritti e nuovi divieti di utilizzo dell’AI

Tra le principali novità nate dall’accordo tra Parlamento e Consiglio Ue, si notano alcuni obiettivi fondamentali:

  • Trasparenza. Gli utilizzatori dei sistemi AI dovranno dichiarare quando i contenuti sono generati dall’intelligenza artificiale.
  • Tutela dei diritti fondamentali. Norme più severe che regolino l’uso dell’AI in più ambiti, specie dove c’è il rischio di ledere i diritti fondamentali dei cittadini. Obbligo per gli utilizzatori di valutare a monte se i sistemi tutelino questi diritti.
  • Governance europea. Alcuni poteri esecutivi saranno direttamente dell’Ue, come la supervisione dei modelli e la promozione di standard e pratiche comuni con l’istituzione di un comitato scientifico di esperti indipendenti.
  • Stop a riconoscimento emotivo e social scoring. Il divieto di usare l’AI verrà esteso in  particolare ai sistemi “a rischio inaccettabile”, come quelli utilizzati per la manipolazione comportamentale, il riconoscimento emotivo, il social scoring (attribuzione di un punteggio basato sul comportamento all’interno della società) e la polizia predittiva. Rimane la possibilità di utilizzare l’identificazione biometrica a distanza in determinate circostanze, come in caso di minaccia di terrorismo, ricerca di vittime e indagini per reati gravi, come omicidio e stupro.

Watermark sui contenuti generati dall’AI

Un utente deve essere posto in condizione di riconoscere quando si interfaccia con un’intelligenza artificiale. L’AI si comporta in modo sempre più ‘umano’ e convincente, per cui tra gli obblighi di trasparenza definiti dall’accordo spicca quello di ‘etichettare’ i contenuti da essa generati. Le aziende dovranno dunque dichiarare se i loro contenuti sono prodotti dall’intelligenza artificiale.

Si legge infatti sul sito ufficiale della Commissione Ue:

I deepfake e gli altri contenuti generati dall’intelligenza artificiale dovranno essere etichettati come tali e gli utenti dovranno essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. Inoltre, i fornitori dovranno progettare sistemi in modo tale che audio, video, il contenuto di testo e immagini è contrassegnato in un formato leggibile dalla macchina e rilevabile come generato o manipolato artificialmente“.

L’apposizione di un watermark digitale (un’etichetta non testuale ed esterna, ma inserita a livello informatico nel contenuto stesso) sarebbe la soluzione più affidabile, ma rimane di difficile applicazione e facilmente aggirabile. Sarà dunque molto difficile provare l’effettiva violazione dell’obbligo di indicazione dell’origine artificiale dei contenuti. Cercando di capire se i contenuti siano o meno generati dall’AI, si rischia dunque di infilarsi in un cul de sac, mentre la produzione di quegli stessi contenuti evolve.

I prossimi passi

Nelle prossime settimane, proseguiranno i lavori a livello tecnico volti a finalizzare i dettagli della nuova versione del regolamento. Il testo frutto dell’accordo provvisorio verrà così sottoposto ai rappresentanti degli Stati membri per l’approvazione.

Il testo di compromesso dovrà dunque essere confermato da entrambi gli organi Ue e sottoposto a revisione tecnica prima dell’adozione da parte del legislatore europeo. La legge verrà dunque applicata due anni dopo la sua entrata in vigore, con alcune eccezioni per specifiche disposizioni.

Per ora, le novità introdotte dalla nuova versione non risultano particolarmente precise, ma ciò è dovuto alla natura del regolamento stesso, nato da un compromesso tra organi e Stati e da una moderazione delle stringenti limitazioni che avevano fatto drizzare le orecchie alle aziende operanti nel continente.

Un’ulteriore – e forse la più grande – sfida risiederà nell’applicazione delle linee guida definite dall’AI Act, le quali dovranno essere sicuramente reinterpretate nel tempo in considerazione della rapida evoluzione tecnologica che caratterizza il settore dell’intelligenza artificiale. Un’evoluzione che mal si concilia con il lungo iter legislativo previsto per la legiferazione europea.

Il modello europeo: un freno all’innovazione?

Dato il primato a livello globale, l’AI Act, una pietra miliare per l’Unione europea in termini di regolamentazione, potrà fungere da modello per altre giurisdizioni extra-Ue. Queste, però, risultano molto meglio posizionate in campo AI. Gli Stati Uniti e la Cina hanno già la ‘materia prima’, hanno sviluppato modelli avanzati e competitivi, e, come è sempre avvenuto, procederanno alla loro regolamentazione e all’apposizione di paletti solo in un secondo momento. Noi, invece, regolamentiamo ciò che ancora non abbiamo.

In Europa, non si scorgono proposte alternative in grado di competere nel settore. E ciò è vero nonostante le competenze e le risorse disponibili. Si pensi agli ultimi investimenti annunciati da Fastweb – che punta su un supercomputer nostrano per l’AI – e alla tecnologia di Leonardo.

Una scelta, quella di limitare lo sviluppo e l’utilizzo dell’intelligenza artificiale prima della sua realizzazione, che contribuirà all’espansione del divario già esistente. Siamo primi, sì, ma a quale costo?


In Evidenza


Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Chi fermerà l’AI? Riflessione sull’appello di Musk

Elon Musk e altri mille esperti chiedono una pausa di…

Elon Musk e altri mille esperti: “Allarme intelligenza artificiale”

Elon Musk e altri mille esperti hanno chiesto di sospendere…

Microsoft 365 Copilot, un’AI generativa per la produttività

Microsoft ha lanciato 365 Copilot, un servizio di intelligenza artificiale…

OpenAI rilascia GPT-4, più potente e multimodale

GPT-4 è arrivato. Un modello multimodale e con 100 trilioni…