Muskizzazione dell’AI americana: direttiva contro il “woke virus” nei modelli

Le indicazioni del National Institute of Standards and Technology eliminano i riferimenti a “AI safety”, “responsible AI” e “AI fairness”.

2 min.

Muskizzazione dell’AI americana: direttiva contro il “woke virus” nei modelli

Il National Institute of Standards and Technology (NIST) ha recentemente emesso nuove istruzioni rivolte ai ricercatori che collaborano con l’AI Safety Institute. Le indicazioni sono parte di un nuovo accordo di ricerca e sviluppo che elimina qualsiasi riferimento a “AI safety”, “responsible AI” e “AI fairness”, orientando il lavoro verso la riduzione del bias ideologico (definito in passato come “woke virus”) al fine di “promuovere il benessere umano e rafforzare la competitività” economica degli Stati Uniti.

Questa direttiva segna un netto cambiamento rispetto alle precedenti linee guida, che incoraggiavano la correzione di comportamenti discriminatori nei modelli di intelligenza artificiale, con particolare attenzione alle disuguaglianze relative a questioni di genere, età, razza e situazione economica. Ora, invece, l’accento viene posto sul concetto di “America first”, con l’obiettivo di sviluppare strumenti di testing in grado di espandere la posizione globale del Paese nel settore dell’intelligenza artificiale.

Spariscono inoltre nel nuovo accordo i riferimenti allo sviluppo di strumenti per l’autenticazione dei contenuti, per il loro tracciamento e per l’etichettatura dei contenuti sintetici.

Le reazioni e le critiche alla ‘muskizzazione’

Le nuove disposizioni hanno sollevato forti reazioni nel mondo della ricerca. Alcuni esperti temono che, omettendo temi fondamentali quali la sicurezza e l’equità, si possano lasciare incontrollati algoritmi che discriminano e mettono a rischio la sicurezza degli utenti.

La polemica si è estesa, naturalmente, anche alle critiche di Elon Musk, che in passato ha attaccato i modelli sviluppati da giganti come OpenAI e Google, etichettandoli come “woke”, proprio per via delle limitazioni che queste società pongono ai propri servizi al fine di arginarne i bias nell’output.

Il ‘modello Musk’ (di un’AI generativa senza limiti né filtri) rappresentato da Grok sembra ora influenzare la visione governativa, che a sua volta inciderà (e sta già incidendo) sull’approccio adottato dai principali player.

Google si allinea a Trump? Cancellati i riferimenti a diversità ed equità

La decisione è parte di un aggiornamento volto a ristrutturare…


Ultime news


Trump, un video fatto con AI per rispondere nel suo stile alle proteste “No Kings”

Nel video il presidente, alla guida di un caccia militare…

Trump, un video fatto con AI per rispondere nel suo stile alle proteste “No Kings”
Suno verso una valutazione di 2 miliardi di dollari

Una nuova raccolta fondi per la società potrebbe superare i…

Suno verso una valutazione di 2 miliardi di dollari
Fame di energia per l’AI: in USA cresce un metodo per estrarre idrocarburi vietato in Europa

In Texas diversi progetti infrastrutturali di intelligenza artificiale prevedono l'estrazione…

Fame di energia per l’AI: in USA cresce un metodo per estrarre idrocarburi vietato in Europa
Le persone consultano sempre meno Wikipedia a causa delle nuove ricerche AI

Lo afferma la Wikimedia Foundation: il traffico sul sito è calato…

Le persone consultano sempre meno Wikipedia a causa delle nuove ricerche AI
In California una donna si è difesa in tribunale usando solo l’AI e ha vinto la causa

ChatGPT e Perplexity hanno assistito una donna in una causa…

In California una donna si è difesa in tribunale usando solo l’AI e ha vinto la causa

In Evidenza


Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano

Gli ideatori, Lucia Cenetiempo e Massimiliano Di Blasi, ci raccontano…

Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano
Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Privacy policy| Cookie policy| Cookie setting| © 2025