Ricercatori di spicco provenienti da OpenAI e Anthropic hanno lanciato dure critiche contro xAI di Elon Musk, accusandola di adottare una cultura della sicurezza “completamente irresponsabile” nello sviluppo dei suoi modelli linguistici avanzati.
Al centro della polemica c’è Grok 4, il chatbot di punta di xAI, lanciato di recente sulla piattaforma X. A differenza di quanto accade con altri modelli di intelligenza artificiale, il rilascio è avvenuto senza la pubblicazione di un report tecnico (il “system card”) che descriva i test di sicurezza e le valutazioni dei rischi, un passaggio ormai considerato standard nel settore.
“Non pubblicare una system card per un modello così potente è del tutto irresponsabile”, ha scritto Boaz Barak, professore a Harvard e collaboratore di OpenAI, in un post su X (ex Twitter).
A lui si è unito anche Samuel Marks, ricercatore di Anthropic, secondo cui la scelta di xAI rappresenta un passo indietro nella trasparenza e nella sicurezza: “Persino i competitor più criticati di solito condividono questi dati, almeno prima o poco dopo il lancio”.
xAI ha difeso la propria posizione sostenendo di aver comunque condotto valutazioni di sicurezza interne, pur senza rilasciarne i risultati. Tuttavia, i dubbi restano. Il chatbot Grok è già finito al centro di polemiche in tempi recenti per aver generato contenuti controversi, tra cui messaggi antisemiti firmati da un alter ego chiamato “MechaHitler”.
Anche alcune recenti funzionalità introdotte da xAI sono considerate da molti ricercatori come un sintomo di una gestione poco responsabile dei limiti etici e sociali dell’AI.

Grok: il nuovo aggiornamento è ricco di tesi scettiche, politicamente scorrette e antisemite
Le denunce di molti utenti hanno indotto la direzione di…