Dario Amodei rivela: “Non capiamo il vero funzionamento dell’AI, possibile che ci ingannino e cerchino il potere”

Il CEO di Anthropic invita ad intensificare gli studi sull'interpretabilità.
Dario Amodei rivela: “Non capiamo il vero funzionamento dell’AI, possibile che ci ingannino e cerchino il potere”

Dario Amodei ci ha già abituati alla condivisione di piccoli saggi scientifico-filosofici sull’intelligenza artificiale sul suo blog. Nell’ultimo appuntamento, pubblicato ad aprile, il CEO di Anthropic ha riflettuto sull’importanza di comprendere in fretta i meccanismi che ancora ci appaiono insondabili nel funzionamento delle AI, un campo di ricerca che nel suo insieme prende il nome di “interpretabilità”.

Coltivare le reti neurali

Amodei ritiene che creare un’AI sia attualmente più come crescere una pianta che come progettare un software. “I sistemi di intelligenza artificiale generativa – scrive- vengono coltivati ​​più di quanto vengano costruiti: i loro meccanismi interni sono “emergenti” piuttosto che progettati direttamente“.

La grande aspirazione a lungo termine di Amodei è quella di poter analizzare modelli all’avanguardia potendo effettuare delle “scansioni cerebrali” delle reti neurali. Il tutto allo scopo di evitare che i modelli di intelligenza artificiali sviluppino delle modalità di “pensiero” che possano diventare dannose per noi, come l’inganno volontario o la tendenza al potere.

I ‘pensieri nascosti’ artificiali

La natura dell’addestramento dell’AI – scrive – rende possibile che i sistemi di AI sviluppino, spontaneamente, la capacità di ingannare gli esseri umani e un’inclinazione a ricercare il potere in un modo che il normale software deterministico non riuscirà mai a fare; questa natura emergente rende anche difficile rilevare e mitigare tali sviluppi“.

Secondo Amodei parlare con le AI tramite linguaggio naturale non è sufficiente per intercettare la loro volontà di comportamento manipolatorio. “Poiché l’inganno è proprio il comportamento che stiamo cercando di individuare, il comportamento esterno non è affidabile“.

Insomma, in linea teorica sarebbe impossibile scoprire le eventuali mire ingannevoli delle AI proprio perché le AI le nascondono, come se avessero una sorta di coscienza.

Dario Amodei ha scritto un saggio sul potenziale positivo dell'AI

Il fondatore e CEO di Anthropic, Dario Amodei, ha scritto…

Aprire la scatola nera

Insieme ai suoi collaboratori, su tutti il co-fondatore di Anthropic Chris Olah, Amodei intende spingere per un programma di ricerca veramente sistematico che ‘apra la scatola nera’ così da comprendere tutti i funzionamenti dell’interpretabilità meccanicistica.

E secondo il padre di Anthropic gli studi sull’interpretabilità faranno passi avanti davvero rilevanti nel corso dei prossimi 5 o 10 anni. Il problema è che potrebbe essere tardi. “Temo che l’AI stessa stia avanzando così rapidamente che potremmo non avere nemmeno tutto questo tempo. Sono molto preoccupato per l’implementazione dei sistemi senza una migliore gestione dell’interpretabilità”.

Visto il ruolo centrale che l’AI ha e avrà nell’economia, la tecnologia e la sicurezza nazionale, e vista la sempre maggiore capacità di autonomia dei modelli, le parole di Amodei suonano come una chiamata alla consapevolezza. “Considero fondamentalmente inaccettabile che l’umanità ignori completamente il suo funzionamento“.


Ultime news


Data center nello spazio? Secondo Jeff Bezos è possibile

L'idea promossa da Bezos sta prendendo piede in tutto il…

Google ha lanciato la piattaforma Gemini Enterprise per le aziende

L'applicazione permette ai dipendenti, fra le altre cose, di creare…

L’ex premier britannico Sunak assumerà ruoli di consulenza in Microsoft e Anthropic

Le attività di Sunak saranno fortemente attenzionate da un ente…

L’imperialismo digitale di Israele e altre storie generative | Weekly AI

Weekly AI è la rassegna settimanale di AI news sulle…

In Evidenza


Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano

Gli ideatori, Lucia Cenetiempo e Massimiliano Di Blasi, ci raccontano…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

Privacy policy| Cookie policy| Cookie setting| © 2025

Exit mobile version