OpenAI, anche Jan Leike abbandona: “L’azienda è responsabile a nome di tutta l’umanità”

Pochi giorni dopo l'abbandono di Ilya Sutskever, OpenAI continua a perdere pezzi: se ne va anche il responsabile della sicurezza Jan Leike.

4 min.

OpenAI, anche Jan Leike abbandona: “L’azienda è responsabile a nome di tutta l’umanità”

Leike al seminario sulla cooperazione intelligente del 2023 di Foresight.

Pochi giorni dopo l’abbandono di Ilya Sutskever, OpenAI continua a perdere pezzi: anche il responsabile della sicurezza dell’AI Jan Leike abbandona l’azienda. Leike era a capo del team denominato “Superalignment”, dedicato esclusivamente alla previsione e all’argine dei rischi derivanti dall’intelligenza artificiale super intelligente.

All’insegna della tensione

A differenza di Sutskever, il cui distacco dall’azienda è avvenuto con apparente tranquillità, la separazione di Leike si è distinta per dichiarazioni fortemente polemiche diffuse attraverso numerosi post su X.

Pensavo che OpenAI sarebbe stato il posto migliore al mondo per fare questa ricerca – ha scritto su X – Tuttavia, sono stato in disaccordo con la leadership riguardo alle priorità fondamentali dell’azienda per un bel po’ di tempo, fino a quando abbiamo finalmente raggiunto un punto di rottura“.

Traiettoria sbagliata

Lo scienziato non avrebbe ottenuto dall’azienda le sufficienti risorse, sia economiche che di performance dei server, per occuparsi delle molteplici criticità legate alla sicurezza.

Credo che gran parte della nostra larghezza di banda dovrebbe essere spesa per prepararci alle prossime generazioni di modelli – prosegue – Sicurezza, monitoraggio, preparazione, protezione, resistenza agli avversari, (super)allineamento, riservatezza, impatto sociale e argomenti correlati: questi problemi sono piuttosto difficili da risolvere e temo che non siamo sulla traiettoria per arrivarci“.

Abbiamo navigato controvento”

A tratti le dichiarazioni di Leike assumono la forma di veri e propri “attacchi” alla leadership della società.

Negli ultimi mesi la mia squadra ha navigato controvento. A volte avevamo difficoltà con il calcolo e diventava sempre più difficile portare a termine questa ricerca cruciale. Costruire macchine più intelligenti di quelle umane è un’impresa intrinsecamente pericolosa. OpenAI si assume un’enorme responsabilità a nome di tutta l’umanità. Ma negli ultimi anni, la cultura e i processi della sicurezza sono passati in secondo piano rispetto a prodotti brillanti. Attendiamo da tempo di prendere incredibilmente sul serio le implicazioni dell’AGI. Dobbiamo dare priorità alla preparazione per affrontarle nel miglior modo possibile. Solo allora potremo garantire che l’AGI porti benefici a tutta l’umanità. OpenAI deve diventare una società AGI attenta alla sicurezza“.

L’appello alla responsabilità

L’ormai ex OpenAI non ha mancato di lanciare un appello di responsabilità ai dipendenti dell’azienda ma senza fare mai il nome di Altman, Brockman e gli altri numeri uno. Un’omissione che rivela più di tante parole.

A tutti i dipendenti OpenAI, voglio dire: imparate a sentire l’AGI. Agite con la gravità appropriata per ciò che state costruendo. Credo che voi possiate “trasmettere” il cambiamento culturale necessario. Conto su di voi. Il mondo conta su di voi“. Dopo la sua uscita, il team Superalignment è stato chiuso.

Altman e Brockman hanno rilasciato un comunicato (firmato da loro due soli) per rispondere ad alcune delle questioni sollevate dall’ex collega. “Siamo davvero grati a Jan per tutto ciò che ha fatto per OpenAI e sappiamo che continuerà a contribuire alla missione dall’esterno – precisano – Non esiste una guida comprovata su come percorrere il percorso verso l’AGI. Riteniamo che la comprensione empirica possa aiutare a definire la via da seguire. Prendiamo molto sul serio il nostro ruolo qui e valutiamo attentamente il feedback sulle nostre azioni“.


Ultime news


Salesforce lancia una nuova piattaforma AI intelligenza artificiale per aziende

Agentforce 360 permette di sviluppare agenti AI personalizzati che sono…

Meta ha assunto il co-fondatore di Thinking Machines Labs Andrew Tulloch

Tulloch in passato ha ricoperto un ruolo in Meta per…

In Evidenza


Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano

Gli ideatori, Lucia Cenetiempo e Massimiliano Di Blasi, ci raccontano…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

Privacy policy| Cookie policy| Cookie setting| © 2025

Exit mobile version