Gli scopi dell’intelligenza artificiale, si sa, sono molteplici e di varia natura. Ultimamente questa moltitudine sta preoccupando non poco OpenAI, che vede nella crescita della sua AI il rischio che un giorno essa possa arrivare a servire degli scopi impropri come la produzione di armi biologiche.
Attraverso un post pubblicato sul suo blog intitolato “Preparazione alle future capacità dell’IA in biologia”, l’azienda ha reso noti alcuni timori che stanno influenzando la sua dirigenza. In questo senso, l’aiuto indiretto che l’AI può fornire a personale “altamente qualificato” nella creazione di “armi chimiche biologiche” è un tema che necessita attenzione. Ciò che emerge dal documento è che il pericolo non riguarda esclusivamente soggetti qualificati ma anche “persone con competenze minime” che potrebbero essere messe nelle condizioni di “ricreare minacce biologiche”.
Ma esistono modelli AI di OpenAI in grado di produrre questi output? Secondo quanto dichiarato ad Axios dal responsabile della sicurezza di OpenAI, Johannes Heidecke, ad oggi l’azienda non dispone ancora di modelli in grado di generare tali risultati, ma le preoccupazioni maggiori si concentrano sul futuro. I prossimi modelli di ragionamento che succederanno l’attuale o3 potrebbero essere in grado di “raggiungere quel livello” e di supportare l’attività di personale “esperto” che vanta già una certa famigliarità con processi di produzione di armi biologiche.
Google revoca il divieto sull'uso dell'AI per armi e sorveglianza
Alphabeth sembra puntare su un'integrazione sempre più stretta tra tecnologia…