Il 28 febbraio 2026, giorno in cui è cominciata l’offensiva di USA e Israele contro l’Iran, un missile ha centrato in pieno la scuola elementare femminile Shajareh Tayyebeh a Minab, nel sud del paese, durante l’orario delle lezioni. Il bilancio è stato agghiacciante, con 165 vittime, per lo più bambine tra i 7 e i 12 anni, e oltre 95 feriti.
Secondo le ricostruzioni del New York Times e dell’AFP, l’attacco è avvenuto mentre le forze statunitensi colpivano obiettivi militari vicini, tra cui una base navale dei Guardiani della Rivoluzione a soli 600 metri di distanza, ed è quindi probabilmente da attribuire agli USA l’azione militare che ha condotto a questo risultato. Nonostante le prove satellitari, i video geolocalizzati e le dichiarazioni di due funzionari statunitensi anonimamente citati da Reuters, né Washington né Tel Aviv hanno rivendicato la responsabilità di quello che gli esperti delle Nazioni Unite definiscono un possibile “crimine di guerra” su cui è necessaria un’indagine indipendente.
Il Pentagono, interpellato sulla possibilità che l’intelligenza artificiale Claude di Anthropic abbia contribuito a selezionare l’obiettivo, ha risposto con un silenzio: “Non abbiamo nulla da dire al momento”. Una risposta che alimenta i dubbi sull’uso di sistemi automatizzati nella catena decisionale militare.
La strage di Minab non è un caso isolato. Già nel 2024, l’esercito israeliano aveva utilizzato il sistema “Lavender” per identificare obiettivi a Gaza, riducendo il ruolo umano ad un livello di approvazione automatica di qualcosa già deciso dalla macchina. Ora, con l’AI sempre più integrata nelle operazioni belliche, il rischio è che la rapidità algoritmica delle macchine prevalga sulla prudenza umana con un aumento generalizzato delle vittime civili innocenti.

L'AI al centro della strategia militare: cosa dice la nuova dottrina "AI First" adottata dagli USA
La nuova strategia statunitense rappresenta una svolta storica nell'utilizzo di…














