Nemmeno le Big Tech che stanno investendo trilioni di dollari nello sviluppo della superintelligenza artificiale (detta ASI) sanno dove può portare questo sforzo. La pensa così Stuart J. Russell, informatico britannico nato nel 1962 e noto per il suo enorme contributo dato allo sviluppo dell’AI. Russell è attualmente professore emerito di Informatica presso l’Università della California di Berkeley e direttore del Center for Human‑Compatible AI, un centro di ricerca che lavora per sviluppare un’AI compatibile con la specie umana.
In un’intervista rilasciata alla Cnbc, Russell paragona il rischio dell’ASI per l’umanità a una “roulette russa”, un processo dall’esito incerto su cui scarseggia il controllo. Russell ritiene che la causa di questa imprevedibilità sia la volontà di profitto e supremazia tecnologica che caratterizza le imprese dell’AI, un binomio che le porta a sottovalutare ed accettare un rischio catastrofico.
Russell spiega che i sistemi di ASI sono addestrati su enormi dataset umani contenenti sfere comportamentali tipiche dell’essere umano inclini all’egoismo e alla preservazione di sé stessi. Si tratta ad esempio della voglia di vincere, convincere, ottenere approvazione e consenso, attitudini che non sono adatti per le macchine e possono generare pericoli.
In conclusione l’informatico afferma che lo sviluppo dell’ASI dovrebbe essere sospeso, almeno finché non si saprà con certezza quello che accade all’interno dei modelli. Anche se al momento l’accelerazione tecnologica sta guidando il settore del tech, la prudenza dovrebbe prevalere. Uno sviluppo sicuro prevede un ambiente basato non solo su logiche di economiche e di performance, ma soprattutto etiche ed esistenziali.

Più di 1000 personaggi pubblici hanno chiesto lo stop allo sviluppo della superintelligenza artificiale
I firmatari chiedono una revisione dei principi su cui si…














