OpenAI e Microsoft studiano ChatGPT nelle mani negli hacker

Microsoft e OpenAI hanno lanciato l'allarme sull'utilizzo dell'intelligenza artificiale da parte di hacker e hanno diffuso studi specifici.

1 min.

OpenAI e Microsoft studiano ChatGPT nelle mani negli hacker

Microsoft e OpenAI hanno lanciato l’allarme sull’utilizzo dell’intelligenza artificiale, su tutte ChatGPT, da parte di hacker mondiali e hanno diffuso alcuni risultati su studi specifici portati avanti in sinergia negli ultimi mesi. Gli hacker in questione agirebbero per conto di organizzazioni governative di paesi come Russia, Cina e Corea del Nord.

In uno studio pubblicato ufficialmente, Microsoft e OpenAI spiegano che è in corso un’analisi per monitorare ogni nuova modalità di attacco, ma che le tecniche per difendersi dalle aggressioni AI del futuro devono ancora essere perfezionate. Le due aziende hanno diffuso i risultati di osservazione di alcuni precisi gruppi di hacker, studiati nel corso del 2023. Tra questi Crimson Sandstorm, un gruppo iraniano che si ritiene sia collegato al Corpo delle Guardie della Rivoluzione Islamica, Emerald Sleet, entità autore di minacce nordcoreana rimasta molto attiva per tutto il 2023 e Forest Blizzard, un attore dell’intelligence militare russa che ha preso di mira vittime di interesse sia tattico che strategico per il governo russo. 


In Evidenza


Intelligenza artificiale: prepararsi al 2026 | Il report di AI News

Il nuovo report di AI News per non farsi sorprendere…

Intelligenza artificiale: prepararsi al 2026 | Il report di AI News
AI, bolla o non bolla? Il parere degli esperti non è unanime

Ne abbiamo intervistati cinque per unire i puntini

AI, bolla o non bolla? Il parere degli esperti non è unanime
Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

Privacy policy| Cookie policy| Cookie setting| © 2026