Non mancano le prime voci critiche all’annuncio della nascita del Frontier Model Forum; la più vistosa è quella della professoressa Emily Bender, esperta di linguistica computazionale ed elaborazione del linguaggio all’università di Washington: le sue dichiarazioni al Financial Times, basate sul timore che le aziende mirino ad una graduale auto-regolamentazione, hanno fatto il giro del mondo.
I temi trattati all’interno dell’articolo
L’annuncio
A fine luglio tre dei maggiori colossi tech e AI mondiali, Anthropic, Google, Microsoft e OpenAI, avevano annunciato la creazione di un collettivo organo di controllo dei modelli di machine learning dell’intelligenza artificiale. Lo scopo del nuovo ente sarà di vigilare soprattutto i modelli AI più avanzati e dallo sviluppo più imprevedibile, per assicurarsi che gli standard del settore vadano sempre nella direzione della sicurezza.
Questa unione di forze è arrivata in risposta al confronto avuto con l’amministrazione Biden il 21 luglio. Insieme a diversi altri competitor (nello specifico Amazon, Meta e Inflection), le aziende avevano preso parte ad una sottoscrizione alla Casa Bianca per un impegno condiviso nello sviluppo di strumenti AI responsabili. A colpire particolarmente, la vistosa assenza di Apple da entrambe le iniziative.
Le critiche di Bender
Emily Bender è in generale molto dubbiosa riguardo alle opportunità linguistiche e sociali dell’AI generativa. In questo caso però la sua analisi è strutturale.
”Affermando di essere in grado di auto-regolarsi – ha dichiarato – queste aziende non fanno altro che cercare di aggirare le regole.”
Secondo la linguista concentrarsi sul timore che “le macchine prenderanno vita e assumeranno il controllo” fa il gioco delle aziende tech, che hanno tutto l’interesse di sviare l’attenzione dell’opinione pubblica dai “veri problemi che abbiamo riguardo al furto di dati, alla sorveglianza e alla precarizzazione generale dell’economia“.
“La regolamentazione – ha aggiunto – deve venire dall’esterno. Deve essere promulgata dal governo che rappresenta il popolo per limitare ciò che queste aziende possono fare“.
Una cerniera tra politica e mercato
Le informazioni sulla conformazione del Frontier Model Forum, fino ad ora, non sono molte.
Da quanto dichiarato in una nota ufficiale condivisa dalle aziende le finalità vanno nella direzione di perseguire “Lo sviluppo responsabile dei sistemi di intelligenza di frontiera”.
E sono già delineati a grandi linee gli obbiettivi: “Avanzare nella ricerca sulla sicurezza dell’AI, identificare le migliori pratiche e i migliori standard e facilitare la condivisione delle informazioni tra i responsabili politici e l’industria”. Proprio quest’ultimo passaggio, la prospettiva di fare da cerniera tra politica e aziende, è quello che colpisce di più alla luce di quanto dichiarato dalla linguista statunitense.
Regole senza istituzioni?
Questa sarà infatti ricordata come l’estate calda delle regolamentazioni AI. L’Unione Europea sta ultimando in queste settimane l’AI Act (dovrebbe entrare in vigore già il prossimo gennaio) e la sua stesura ha già fatto arrabbiare un nutrito gruppo di aziende, timorose che regole troppo stringenti possano bloccare il settore. E di recente anche il segretario generale dell’ONU António Guterres ha annunciato l’intenzione di istituire un organo consultivo di alto livello sull’intelligenza artificiale e di formulare una regolamentazione globale condivisa entro l’anno.
Le risposte alle due proposte istituzionali sono state diverse; se quella dell’UE ha generato malcontento tra le aziende tech, quella dell’ONU sembra aver generato una spirale collaborativa.
Non è un caso che proprio in questo contesto le aziende stesse si strutturino in un proprio ente ponendosi come interlocutori ‘istituzionalizzati’, presumibilmente con l’intento nemmeno troppo velato di arrivare ad auto-regolamentare sé stesse.
La chiave per comprendere questi movimenti è proprio il concetto, sottolineato da Bender nelle sue dichiarazioni, di ‘limitazione’.
Il futuro dell’AI sembra sempre più dipendere da un bilanciamento tra istituzioni e mercato per definire a quale prezzo la sicurezza possa arginare lo sviluppo. O a quale prezzo lo sviluppo possa arginare la sicurezza.