Le prime critiche al Frontier Model Forum

Le prime critiche al Frontier Model Forum

security Frontier Model Forum

Non mancano le prime voci critiche all’annuncio della nascita del Frontier Model Forum; la più vistosa è quella della professoressa Emily Bender, esperta di linguistica computazionale ed elaborazione del linguaggio all’università di Washington: le sue dichiarazioni al Financial Times, basate sul timore che le aziende mirino ad una graduale auto-regolamentazione, hanno fatto il giro del mondo.

L’annuncio

A fine luglio tre dei maggiori colossi tech e AI mondiali, Anthropic, Google, Microsoft e OpenAI, avevano annunciato la creazione di un collettivo organo di controllo dei modelli di machine learning dell’intelligenza artificiale. Lo scopo del nuovo ente sarà di vigilare soprattutto i modelli AI più avanzati e dallo sviluppo più imprevedibile, per assicurarsi che gli standard del settore vadano sempre nella direzione della sicurezza.

Questa unione di forze è arrivata in risposta al confronto avuto con l’amministrazione Biden il 21 luglio. Insieme a diversi altri competitor (nello specifico Amazon, Meta e Inflection), le aziende avevano preso parte ad una sottoscrizione alla Casa Bianca per un impegno condiviso nello sviluppo di strumenti AI responsabili. A colpire particolarmente, la vistosa assenza di Apple da entrambe le iniziative.

Le critiche di Bender

Emily Bender è in generale molto dubbiosa riguardo alle opportunità linguistiche e sociali dell’AI generativa. In questo caso però la sua analisi è strutturale.

”Affermando di essere in grado di auto-regolarsi – ha dichiarato – queste aziende non fanno altro che cercare di aggirare le regole.”

Secondo la linguista concentrarsi sul timore che “le macchine prenderanno vita e assumeranno il controllo” fa il gioco delle aziende tech, che hanno tutto l’interesse di sviare l’attenzione dell’opinione pubblica dai “veri problemi che abbiamo riguardo al furto di dati, alla sorveglianza e alla precarizzazione generale dell’economia“.

La regolamentazione – ha aggiuntodeve venire dall’esterno. Deve essere promulgata dal governo che rappresenta il popolo per limitare ciò che queste aziende possono fare“.

Una cerniera tra politica e mercato

Le informazioni sulla conformazione del Frontier Model Forum, fino ad ora, non sono molte. 

Da quanto dichiarato in una nota ufficiale condivisa dalle aziende le finalità vanno nella direzione di perseguire “Lo sviluppo responsabile dei sistemi di intelligenza di frontiera”.

E sono già delineati a grandi linee gli obbiettivi: “Avanzare nella ricerca sulla sicurezza dell’AI, identificare le migliori pratiche e i migliori standard e facilitare la condivisione delle informazioni tra i responsabili politici e l’industria”. Proprio quest’ultimo passaggio, la prospettiva di fare da cerniera tra politica e aziende, è quello che colpisce di più alla luce di quanto dichiarato dalla linguista statunitense.

Regole senza istituzioni?

Questa sarà infatti ricordata come l’estate calda delle regolamentazioni AI. L’Unione Europea sta ultimando in queste settimane l’AI Act (dovrebbe entrare in vigore già il prossimo gennaio) e la sua stesura ha già fatto arrabbiare un nutrito gruppo di aziende, timorose che regole troppo stringenti possano bloccare il settore. E di recente anche il segretario generale dell’ONU António Guterres ha annunciato l’intenzione di istituire un organo consultivo di alto livello sull’intelligenza artificiale e di formulare una regolamentazione globale condivisa entro l’anno.

Le risposte alle due proposte istituzionali sono state diverse; se quella dell’UE ha generato malcontento tra le aziende tech, quella dell’ONU sembra aver generato una spirale collaborativa

Non è un caso che proprio in questo contesto le aziende stesse si strutturino in un proprio ente ponendosi come interlocutori ‘istituzionalizzati’, presumibilmente con l’intento nemmeno troppo velato di arrivare ad auto-regolamentare sé stesse. 

La chiave per comprendere questi movimenti è proprio il concetto, sottolineato da Bender nelle sue dichiarazioni, di ‘limitazione’.

Il futuro dell’AI sembra sempre più dipendere da un bilanciamento tra istituzioni e mercato per definire a quale prezzo la sicurezza possa arginare lo sviluppo. O a quale prezzo lo sviluppo possa arginare la sicurezza.


Ultime news


Altri 275 mln per la startup di sorveglianza Flock Safety; valutazione a 7,5 mld

I fondi saranno investiti per espandere la presenza sul mercato,…

Altri 275 mln per la startup di sorveglianza Flock Safety; valutazione a 7,5 mld
Dragone all’attacco, USA in difesa tra fratture e strette di mano segrete | Weekly AI

Weekly AI è la nostra rassegna settimanale sulle notizie più…

Dragone all’attacco, USA in difesa tra fratture e strette di mano segrete | Weekly AI
Keir Starmer come Musk? Il leader britannico ‘assume’ l’AI nel settore pubblico

La decisione è stata accolta con opinioni contrastanti e i…

Keir Starmer come Musk? Il leader britannico ‘assume’ l’AI nel settore pubblico
La personalizzazione di Gemini passerà dalle tue ricerche su Google

La funzione Gemini with Personalization sarà resa disponibile gradualmente nel…

La personalizzazione di Gemini passerà dalle tue ricerche su Google
OpenAI chiede a Trump di allentare le regolamentazioni per competere con la Cina

OpenAI ha iniziato un'operazione di influenza del prossimo “Piano d’azione…

OpenAI chiede a Trump di allentare le regolamentazioni per competere con la Cina

In Evidenza


I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi
Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Il video di Faraday è stato visto oltre 2,6 milioni…

Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà
Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Quando le relazioni sono artificiali

Privacy policy| Cookie policy| Cookie setting| © 2025