Google, Microsoft, OpenAI e Anthropic hanno annunciato la creazione del Frontier Model Forum, un nuovo ente operativo nel campo dell’intelligenza artificiale, diretto a garantire uno sviluppo sicuro e responsabile dei modelli di AI più avanzati, detti “di frontiera”.
Il Forum riunirà le competenze tecniche delle aziende fondatrici – i principali player nel mercato occidentale dell’intelligenza artificiale – per stabilire pratiche e standard condivisi sulla sicurezza e l’etica dell’AI.
I temi trattati all’interno dell’articolo
Gli obiettivi del Forum
L’ente intende promuovere la ricerca sulla sicurezza dell’AI, identificare le migliori pratiche di implementazione, collaborare con governi e società civile per condividere conoscenze su rischi e benefici e supportare lo sviluppo di applicazioni dell’AI per affrontare le grandi sfide globali come i cambiamenti climatici e le minacce informatiche.
Il Forum istituirà un comitato consultivo con una varietà di prospettive, definirà una governance chiara e si consulterà con società civile e governi al fine di incentivare una più stretta e coordinata collaborazione. Si baserà inoltre sul lavoro fatto nel contesto di iniziative esistenti, come quelle avanzate dall’Unione Europea e dal G7 e altre.
I modelli di frontiera
Il Forum pone come criterio discretivo per la ‘selezione’ dei soggetti che potranno accedere all’organizzazione come membri la definizione dei cosiddetti modelli di frontiera, ossia modelli di machine learning su larga scala in grado di eseguire un’ampia varietà di attività superando le capacità dei modelli esistenti.
L’adesione al Forum è dunque aperta alle aziende che sviluppano e/o implementano tali modelli, dimostrano impegno per la loro sicurezza e sono disposte a contribuire alle iniziative proposte e attivate nel contesto del Forum stesso.
Una governance condivisa?
La creazione del Frontier Model Forum segna un passo importante verso una maggiore collaborazione tra i principali attori del settore AI, per promuoverne uno sviluppo etico e responsabile. Riuscire a bilanciare innovazione e sicurezza in questo campo sarà infatti una sfida cruciale.
Il Forum ha l’intento di costruire una governance condivisa, definire standard e linee guida e coinvolgere attivamente governi e società civile. Se ci riuscirà, potrà dare un contributo significativo per far sì che i prossimi sviluppi dell’intelligenza artificiale – e soprattutto dei modelli di frontiera – procedano nel rispetto dei diritti fondamentali e dei principi etici. Una sfida che va di pari passo con gli sforzi legislativi a livello gobale ed europeo.