Il governo britannico ha annunciato giovedì una collaborazione con Microsoft, accademici ed esperti per sviluppare un sistema di rilevamento dei deepfake, con l’obiettivo di stabilire standard condivisi per contrastare i contenuti dannosi generati dall’intelligenza artificiale.
L’iniziativa prevede la creazione di un framework di valutazione che permetterà di testare le tecnologie di rilevamento contro minacce reali come frodi, abusi sessuali e impersonazioni. La ministra della tecnologia Liz Kendall ha dichiarato che “i deepfake vengono utilizzati come armi dai criminali per truffare il pubblico, sfruttare donne e ragazze e minare la fiducia in ciò che vediamo e sentiamo”.
I dati a disposizione rendono evidente l’urgenza dell’intervento. Secondo le stime governative, nel 2025 sono stati condivisi circa 8 milioni di deepfake, rispetto ai 500.000 del 2023, un aumento esponenziale che riflette la diffusione dei chatbot di AI generativa. Il Regno Unito ha recentemente criminalizzato la creazione di immagini intime non consensuali, ma la rapida evoluzione della tecnologia AI rende necessari strumenti di contrasto più sofisticati.
L’iniziativa britannica si inserisce in un contesto globale di crescente preoccupazione. I governi e i le autorità di regolamentazione di tutto il mondo sono stati spinti all’azione dopo che il chatbot Grok di Elon Musk è stato trovato a generare immagini sessualizzate non consensuali di persone, inclusi minori. Il sistema di rilevamento permetterà alle forze dell’ordine di identificare le lacune nelle tecnologie esistenti e di stabilire aspettative chiare per l’industria tecnologica, rappresentando un passo fondamentale nella lotta alla disinformazione digitale.

Cosa sono i deepfake?
Politica, industria, sanità, economia: ogni campo è a rischio deep…













