A Bruxelles fremono i lavori per la stesura finale dell’AI Act, la prima carta al mondo che regolamenterà l’applicazione e il monitoraggio dell’intelligenza artificiale e che secondo indiscrezioni dovrebbe entrare in vigore all’inizio del 2024. Il Parlamento Europeo ne ha approvato la stesura a metà giugno con 499 voti favorevoli dopo ben due anni di lavoro e si è ufficialmente entrati nella fase di discussione dei tre organi competenti (Parlamento, Consiglio e Commissione) per avere un testo definitivo e condiviso.
I temi trattati all’interno dell’articolo
Norme e rischi
Le norme stabiliranno obblighi o divieti a seconda del livello di rischio che le diverse AI possono generare. Alcuni sistemi, se giudicati portatori di rischi inaccettabili per la sicurezza delle persone (ad esempio quelli di social scoring, la classificazione degli utenti in base alle loro caratteristiche) saranno vietati.
Bando totale quindi ai sistemi di identificazione biometrica (il confronto tra le caratteristiche fisiologiche o comportamentali con dati già archiviati in una banca dati) in tempo reale. Qualche spazio in più (solo previa autorizzazione giudiziaria) nel caso di identificazione a posteriori.
I timori delle aziende
Ma come già ampiamente circolato nelle ultime settimane, non tutti sono soddisfatti. Oltre 150 dirigenti di aziende, europee ma non solo, hanno sottoscritto una lettera aperta all’Unione Europea (riportata dal Financial Times) che invita l’organo e i politici che ne fanno parte a ripensare alla visione sulla regolamentazione dell’AI. Tra le aziende, ci sono anche colossi come Renault, Siemens e Airbus.
Secondo i firmatari, l’impalcatura normativa rischia di tagliare le gambe alle potenzialità dell’intelligenza artificiale in partenza. Addirittura, secondo lo lettera, la conseguenza è di “mettere a rischio la competitività e la sovranità tecnologica dell’Europa”.
La lettera sottolinea in particolare il pericolo degli effetti che potrebbero avere le nuove regolamentazioni sull’uso dell’AI generativa. Secondo l’AI Act i modelli di intelligenza artificiale sulla scia di ChatGPT dovranno essere registrati presso l’UE, che procederà a valutazioni e indagini che potrebbero compromettere la fornitura di informazioni protette da segreto aziendale. Insomma, una severità che secondo i firmatari rischia di mettere dei lacci attorno all’evoluzione dell’intero settore in tutta Europa.
Il timore dei dirigenti è che questo provocherebbe uno spostamento di massa degli operatori del mercato fuori dal territorio europeo, con un conseguente ampio impoverimento economico del continente.
Ruoli sfumati
Ad analizzare la questione, non si tratta però di un classico caso in cui gli attori di un libero mercato temono l’ingerenza delle istituzioni in due fazioni distinte e riconoscibili.
Si ricorderà che appena nel mese di marzo Elon Musk e altri mille manager e ricercatori della Silicon Valley avevano chiesto alle grandi compagnie del settore una pausa di riflessione (in breve rivalutata, visto che dal mese seguente Musk ha iniziato a pianificare il lancio di xAI) per considerare i rischi dello sviluppo delle tecnologie.
Proprio il commissario Ue al Mercato interno Thierry Breton aveva risposto a questo appello.
“L’AI solleva molte questioni dal punto di vista sociale, etico ed economico. Ma non è il momento di premere alcun ‘pulsante di pausa’. Al contrario, si tratta di agire rapidamente e di assumersi la responsabilità”.
Queste parole suonano paradossali, visto che adesso l’UE stessa viene rimproverata di un eccesso di zelo dalle aziende.
Una ricerca poco incoraggiante
Nel frattempo a Stanford i ricercatori del neonato Center for Research on Foundation Models hanno cercato di valutare quanto gli strumenti di intelligenza artificiale generativa presenti oggi sul mercato, come ChatGPT o MidJourney, siano compatibili con le nuove normative presenti nella bozza. Ne hanno ricavato uno studio con punteggi elaborati ad hoc (in base a diverse caratteristiche) da 1 a 48.
I risultati sono un po’ sconfortanti. A difendersi meglio risulta Bloom di BigScienze con 36/48. GPT-4 si ferma a 25/48 e addirittura disastroso è il risultato per applicazioni AI come Luminous di Aleph Alpha, appena 5/48.
Si è aperta ufficialmente la nuova fase delle montagne russe normative per l’AI.