Secondo un rapporto del Future of Life Institute, le aziende che lavorano sull’intelligenza artificiale generale, cioè sistemi capaci di prestazioni intellettuali simili a quelle umane, sono “fondamentalmente impreparate” a gestirne i rischi. Nessuna delle società valutate, tra cui OpenAI, Google DeepMind e Anthropic, ha un piano credibile per garantire la sicurezza di questi sistemi.
L’AGI rappresenta una possibile minaccia esistenziale, in quanto potrebbe sfuggire al controllo umano. Il rapporto segnala che nessuna azienda ha superato la valutazione D nella “pianificazione della sicurezza esistenziale“. Anthropic ha ottenuto il punteggio più alto, ma comunque solo C+.
Max Tegmark, co-fondatore di FLI, ha paragonato la situazione a costruire una centrale nucleare senza alcun piano per evitarne il disastro: il settore deve accelerare gli sforzi per garantire che lo sviluppo dell’AGI avvenga in modo sicuro e controllabile.
Meta recluta personale per un nuovo team AGI
Bloomberg, citando fonti a conoscenza della questione, riporta la notizia…