L’Unicef lancia l’allarme per gli abusi sessuali su minori tramite AI e ne chiede la criminalizzazione

Nell'ultimo anno le denunce di abusi sessuali online che hanno avuto minori come vittime sono aumentate a dismisura e secondo l'Unicef il fenomeno è fuori controllo

2 min.

L’Unicef lancia l’allarme per gli abusi sessuali su minori tramite AI e ne chiede la criminalizzazione

L’intelligenza artificiale sta diventando un’arma nelle mani dei predatori online con oltre un milione di minori che sono vittime di immagini manipolate e sessualizzate, molte delle quali create attraverso la tecnica della “nudificazione”. È l’allarme lanciato dall’UNICEF, che chiede con urgenza la criminalizzazione della produzione e distribuzione di contenuti generati artificialmente che ritraggono abusi su bambini. I deepfake, immagini, video o audio manipolati dall’AI per sembrare autentici, vengono utilizzati sempre più spesso per spogliare digitalmente i minori o inserirli in contesti sessuali.

L’Internet Watch Foundation, un’organizzazione senza scopo di lucro che lavora per ridurre al minimo la disponibilità di contenuti di abusi sessuali online identificando immagini e video di bambini, ha identificato 1.286 video generati dall’AI nei primi sei mesi del 2025, rispetto ai soli due casi del 2024. Un’esplosione che ha travolto le capacità di controllo delle organizzazioni internazionali. Il National Center for Missing & Exploited Children, un’organizzazione non profit statunitense fondata nel 1984 per proteggere i minori da sparizioni, abusi e sfruttamento, soprattutto online, ha ricevuto 485.000 segnalazioni di materiale pedopornografico creato con AI nella prima metà del 2025, contro le 67.000 dell’intero anno precedente. Spesso le autorità faticano a distinguere i contenuti artificiali da quelli reali, mentre il fenomeno si diffonde anche sul web ed è accessibile a tutti e non più confinato al dark web.

L’Unione europea sta cercando di correre ai ripari. Dopo lo scandalo di Grok, il chatbot di X accusato di generare immagini sessualizzate di donne e minori, Bruxelles valuta modifiche alla legge sull’AI per vietare esplicitamente queste pratiche. La proposta di regolamento sulla lotta agli abusi sessuali sui minori, attesa per l’inizio del 2026, dovrebbe includere anche i contenuti generati dall’AI. Ma il tempo stringe: mentre la tecnologia corre, i bambini restano esposti a una violenza digitale senza precedenti che richiede una risposta normativa urgente e coordinata a livello globale.


Ultime news


Syenta, la startup australiana che promette di velocizzare la produzione globale di chip

L'azienda punta ad accorciare i tempi di produzione in maniera…

Syenta, la startup australiana che promette di velocizzare la produzione globale di chip
L’azienda italiana Engineering ha lanciato un’architettura per un’AI sovrana e governabile

Il sistema di AI EngGPT 2 garantisce tracciabilità e auditabilità…

L’azienda italiana Engineering ha lanciato un’architettura per un’AI sovrana e governabile
Gemini sbarca finalmente su Android Auto (ma non tutti sono contenti)

L'integrazione annunciata un anno fa è ufficialmente iniziata

Gemini sbarca finalmente su Android Auto (ma non tutti sono contenti)
Più di una persona su due nel mondo utilizza l’intelligenza artificiale

Con l'aumento dell'utilizzo cresce anche la diffidenza e circa il…

Più di una persona su due nel mondo utilizza l’intelligenza artificiale

In Evidenza


Intelligenza artificiale: prepararsi al 2026 | Il report di AI News

Il nuovo report di AI News per non farsi sorprendere…

Intelligenza artificiale: prepararsi al 2026 | Il report di AI News
AI, bolla o non bolla? Il parere degli esperti non è unanime

Ne abbiamo intervistati cinque per unire i puntini

AI, bolla o non bolla? Il parere degli esperti non è unanime
Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

Privacy policy| Cookie policy| Cookie setting| © 2026