Il CEO di OpenAI, Sam Altman, ha recentemente espresso preoccupazione con riferimento all’AI Act europeo, una legge in fase di finalizzazione che impone nuovi obblighi ai creatori di modelli di intelligenza artificiale, come quelli utilizzati nei servizi ChatGPT e DALL-E di OpenAI.
I temi trattati all’interno dell’articolo
Le parole del CEO di OpenAI, Sam Altman
Dopo un discorso a Londra, Altman ha avvertito che, se OpenAI non riuscirà a conformarsi alla nuova regolamentazione Ue, potrebbe ritirare i suoi servizi dal mercato europeo.
Nonostante abbia successivamente moderato i suoi commenti, sottolineando che OpenAI non ha intenzione di abbandonare l’Europa, Altman ha espresso preoccupazione per il fatto che sistemi come ChatGPT possano essere classificati come “ad alto rischio” secondo la proposta sul tavolo del legislatore europeo. Ciò significherebbe che OpenAI dovrebbe soddisfare una serie di requisiti di sicurezza e trasparenza, che potrebbero essere al di fuori dei limiti tecnici attuali.
very productive week of conversations in europe about how to best regulate AI! we are excited to continue to operate here and of course have no plans to leave.
Inoltre, l’AI Act richiede ai creatori di tali modelli di rispettare altre prescrizioni, tra cui:
divulgare dettagli sulla progettazione del loro sistema;
fornire un riepilogo dei dati protetti da copyright utilizzati per l’addestramento.
Questo potrebbe rappresentare una minaccia commerciale per OpenAI, che ha smesso di condividere tali informazioni con l’intento di proteggere il proprio lavoro dalla concorrenza. Inoltre, la divulgazione dell’utilizzo di dati protetti da copyright potrebbe esporre l’azienda a potenziali azioni legali.
Di recente, Altman, comparso di fronte al Senato Usa, ha sostenuto la necessità di una regolamentazione dell’intelligenza artificiale. Delle regole che, secondo il CEO di OpenAI, dovrebbero applicarsi principalmente ai futuri sistemi di AI, più potenti e imprevedibili rispetto a quelli attuali.
“La risposta giusta è probabilmente qualcosa tra il tradizionale approccio europeo-britannico e il tradizionale approccio statunitense”.
Secondo Sam Altman, la soluzione potrebbe dunque essere una terza via ibrida che garantisca, da una parte, una maggiore tutela e la prevenzione dei rischi tipicamente associati all’applicazione dell’intelligenza artificiale e, dall’altra, una certa libertà in termini di sviluppo tecnologico.