Le prime critiche al Frontier Model Forum

Circolano le prime voci critiche riguardo agli intenti del Frontier Model Forum, fondato da Anthropic, Google, Microsoft e OpenAI a luglio.

5 min.

Le prime critiche al Frontier Model Forum

security Frontier Model Forum

Non mancano le prime voci critiche all’annuncio della nascita del Frontier Model Forum; la più vistosa è quella della professoressa Emily Bender, esperta di linguistica computazionale ed elaborazione del linguaggio all’università di Washington: le sue dichiarazioni al Financial Times, basate sul timore che le aziende mirino ad una graduale auto-regolamentazione, hanno fatto il giro del mondo.

L’annuncio

A fine luglio tre dei maggiori colossi tech e AI mondiali, Anthropic, Google, Microsoft e OpenAI, avevano annunciato la creazione di un collettivo organo di controllo dei modelli di machine learning dell’intelligenza artificiale. Lo scopo del nuovo ente sarà di vigilare soprattutto i modelli AI più avanzati e dallo sviluppo più imprevedibile, per assicurarsi che gli standard del settore vadano sempre nella direzione della sicurezza.

Questa unione di forze è arrivata in risposta al confronto avuto con l’amministrazione Biden il 21 luglio. Insieme a diversi altri competitor (nello specifico Amazon, Meta e Inflection), le aziende avevano preso parte ad una sottoscrizione alla Casa Bianca per un impegno condiviso nello sviluppo di strumenti AI responsabili. A colpire particolarmente, la vistosa assenza di Apple da entrambe le iniziative.

Le critiche di Bender

Emily Bender è in generale molto dubbiosa riguardo alle opportunità linguistiche e sociali dell’AI generativa. In questo caso però la sua analisi è strutturale.

”Affermando di essere in grado di auto-regolarsi – ha dichiarato – queste aziende non fanno altro che cercare di aggirare le regole.”

Secondo la linguista concentrarsi sul timore che “le macchine prenderanno vita e assumeranno il controllo” fa il gioco delle aziende tech, che hanno tutto l’interesse di sviare l’attenzione dell’opinione pubblica dai “veri problemi che abbiamo riguardo al furto di dati, alla sorveglianza e alla precarizzazione generale dell’economia“.

La regolamentazione – ha aggiuntodeve venire dall’esterno. Deve essere promulgata dal governo che rappresenta il popolo per limitare ciò che queste aziende possono fare“.

Una cerniera tra politica e mercato

Le informazioni sulla conformazione del Frontier Model Forum, fino ad ora, non sono molte. 

Da quanto dichiarato in una nota ufficiale condivisa dalle aziende le finalità vanno nella direzione di perseguire “Lo sviluppo responsabile dei sistemi di intelligenza di frontiera”.

E sono già delineati a grandi linee gli obbiettivi: “Avanzare nella ricerca sulla sicurezza dell’AI, identificare le migliori pratiche e i migliori standard e facilitare la condivisione delle informazioni tra i responsabili politici e l’industria”. Proprio quest’ultimo passaggio, la prospettiva di fare da cerniera tra politica e aziende, è quello che colpisce di più alla luce di quanto dichiarato dalla linguista statunitense.

Regole senza istituzioni?

Questa sarà infatti ricordata come l’estate calda delle regolamentazioni AI. L’Unione Europea sta ultimando in queste settimane l’AI Act (dovrebbe entrare in vigore già il prossimo gennaio) e la sua stesura ha già fatto arrabbiare un nutrito gruppo di aziende, timorose che regole troppo stringenti possano bloccare il settore. E di recente anche il segretario generale dell’ONU António Guterres ha annunciato l’intenzione di istituire un organo consultivo di alto livello sull’intelligenza artificiale e di formulare una regolamentazione globale condivisa entro l’anno.

Le risposte alle due proposte istituzionali sono state diverse; se quella dell’UE ha generato malcontento tra le aziende tech, quella dell’ONU sembra aver generato una spirale collaborativa

Non è un caso che proprio in questo contesto le aziende stesse si strutturino in un proprio ente ponendosi come interlocutori ‘istituzionalizzati’, presumibilmente con l’intento nemmeno troppo velato di arrivare ad auto-regolamentare sé stesse. 

La chiave per comprendere questi movimenti è proprio il concetto, sottolineato da Bender nelle sue dichiarazioni, di ‘limitazione’.

Il futuro dell’AI sembra sempre più dipendere da un bilanciamento tra istituzioni e mercato per definire a quale prezzo la sicurezza possa arginare lo sviluppo. O a quale prezzo lo sviluppo possa arginare la sicurezza.


Ultime news


Data center nello spazio? Secondo Jeff Bezos è possibile

L'idea promossa da Bezos sta prendendo piede in tutto il…

Google ha lanciato la piattaforma Gemini Enterprise per le aziende

L'applicazione permette ai dipendenti, fra le altre cose, di creare…

L’ex premier britannico Sunak assumerà ruoli di consulenza in Microsoft e Anthropic

Le attività di Sunak saranno fortemente attenzionate da un ente…

L’imperialismo digitale di Israele e altre storie generative | Weekly AI

Weekly AI è la rassegna settimanale di AI news sulle…

In Evidenza


Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano

Gli ideatori, Lucia Cenetiempo e Massimiliano Di Blasi, ci raccontano…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

Privacy policy| Cookie policy| Cookie setting| © 2025

Exit mobile version