Negli USA hanno arrestato una donna per l’errore di un’AI

Negli USA hanno arrestato una donna per l’errore di un’AI

Police USA

Un’intelligenza artificiale di riconoscimento facciale ha segnalato una donna per rapina portando gli agenti della polizia di Detroit, USA, ad arrestarla; ma era tutto un errore: l’algoritmo dell’AI aveva compiuto uno scambio di persona.

Sventurata protagonista della vicenda una donna afroamericana di 32 anni, Porcha Woodruff. I fatti risalgono a febbraio ma sono diventati di dominio pubblico in questi giorni perché la donna ha deciso di portare in tribunale la città di Detroit.

Al momento dell’arresto era incinta e all’ottavo mese di gravidanza. 

Un brutto incubo 

Per Woodruff è stato un enorme shock. Sei agenti si sono presentati di fronte alla sua abitazione alle otto di mattina del 16 febbraio mentre usciva per portare i figli di 6 e 12 anni a scuola. Gli agenti avevano un mandato di arresto per una rapina con furto d’auto avvenuta circa due settimane prima. Sul momento la donna ha pensato ad uno scherzo, poi è subentrato semplicemente lo sgomento.

Gli agenti l’hanno accompagnata fino al Detroit Detention Center, dove è stata trattenuta per undici ore e interrogata ripetutamente. Il suo iPhone è stato poi confiscato in ricerca di prove. La sera seguente la donna è stata rilasciata su cauzione di 100.000 dollari. C’è mancato poco, inoltre, che la vicenda non finisse ben più tragicamente. Dopo poche ore Woodruff è stata colta da malore e in ospedale le è stata diagnosticata una severa disidratazione e una grande crisi da ansia e stress, che fortunatamente non ha influito sulla gravidanza. 

Un mese più tardi, poco prima del parto, è stata scagionata da tutte le accuse: il procuratore della contea di Wayne ha riferito di uno scambio di persona causato dall’errore dell’intelligenza artificiale.

Errore di algoritmo o di processo?

Il software di riconoscimento facciale in questione aveva comparato le immagini della vera responsabile del reato (in possesso delle forze dell’ordine) con altre fotografie presenti nel database della polizia. La banca dati conteneva anche una foto di Woodruff risalente ad un fermo per guida con patente scaduta del 2015. Secondo l’AI i due profili corrispondevano. Sottoposta l’immagine vecchia di otto anni alla donna rapinata, questa l’aveva indicata come la responsabile del furto. Era ovviamente impossibile: non solo al momento dei fatti era già visibilmente incinta (un dettaglio mai menzionato dalla vittima) ma dopo otto anni differiva anche fisicamente da quella fotografia.

La denuncia di Woodruff sottolinea l’assurdità di affidarsi ad una AI senza opportune verifiche ed accompagnamento umano. Senza seguire, insomma, quel principio che prende il nome di Human In The Loop

L’unica prova a supporto della colpevolezza della donna era algoritmica. A seguito di essa, sembra essere subentrata una rigidità che ha preso il sopravvento su ogni capacità di giudizio degli inquirenti.

Il solo riconoscimento facciale – riporta la denuncia presentata da Woodruff e dal suo avvocato – non può costituire motivo probabile per gli arresti, poiché l’identificazione di un computer è soggetta a errori che gli esseri umani potrebbero commettere anche da soli. Nonostante il suo potenziale, la dipendenza delle forze dell’ordine dal riconoscimento facciale ha portato ad arresti ingiusti, causando umiliazioni, imbarazzo e lesioni fisiche, come evidente in questo caso specifico”.

I precedenti

Non è in effetti la prima occasione in cui avvengono casi simili. È la sesta volta che l’AI provocherebbe una falsa accusa in seguito ad un riconoscimento errato negli USA.

A vantare il primato di questa catena di errori pare essere proprio la polizia di Detroit. Nel 2020 si era resa protagonista di quello che è considerato il primo caso noto di arresto ingiusto che coinvolge il riconoscimento facciale.

James White, capo del dipartimento di Detroit, ha espresso profonda preoccupazione per le accuse. “Stiamo affrontando la questione molto seriamente – ha dichiarato alla CNN – ma al momento non possiamo commentare ulteriormente a causa della necessità di ulteriori indagini”.

L’AI e la questione razziale 

Il caso è strettamente connesso con un tema vastissimo, ossia la caratterizzazione ‘culturale’ delle AI. La denuncia presentata si concentra infatti anche sul fatto che Woodruff si sarebbe sentita vittima di discriminazione razziale.

Le pratiche di tecnologia di riconoscimento facciale – continua la denuncia – hanno dimostrato di identificare erroneamente i cittadini afroamericani in una percentuale superiore rispetto agli altri, violando la parità di trattamento garantita dal Civil Rights Act del Michigan del 1976”. 

Uno studio governativo statunitense condotto dall’Istituto Nazionale di Standard e Tecnologia, sottolineava già nel 2019 che molti algoritmi di riconoscimento facciale occidentali sono più propensi a compiere errori di identificazione randomica sulle minoranze etniche (nativi americani, afroamericani o asiatici) piuttosto che sulle persone di etnia caucasica. 

I test avevano rilevato che alcuni algoritmi erano fino a 100 volte più inclini a confondere due persone non bianche diverse. Di fronte a tali preoccupazioni, diverse città statunitensi (tra cui San Francisco e Somerville, nel Massachusetts) avevano vietato l’uso del riconoscimento facciale da parte delle autorità cittadine.


Ultime news


Altri 275 mln per la startup di sorveglianza Flock Safety; valutazione a 7,5 mld

I fondi saranno investiti per espandere la presenza sul mercato,…

Altri 275 mln per la startup di sorveglianza Flock Safety; valutazione a 7,5 mld
Dragone all’attacco, USA in difesa tra fratture e strette di mano segrete | Weekly AI

Weekly AI è la nostra rassegna settimanale sulle notizie più…

Dragone all’attacco, USA in difesa tra fratture e strette di mano segrete | Weekly AI
Keir Starmer come Musk? Il leader britannico ‘assume’ l’AI nel settore pubblico

La decisione è stata accolta con opinioni contrastanti e i…

Keir Starmer come Musk? Il leader britannico ‘assume’ l’AI nel settore pubblico
La personalizzazione di Gemini passerà dalle tue ricerche su Google

La funzione Gemini with Personalization sarà resa disponibile gradualmente nel…

La personalizzazione di Gemini passerà dalle tue ricerche su Google
OpenAI chiede a Trump di allentare le regolamentazioni per competere con la Cina

OpenAI ha iniziato un'operazione di influenza del prossimo “Piano d’azione…

OpenAI chiede a Trump di allentare le regolamentazioni per competere con la Cina

In Evidenza


I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi
Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Il video di Faraday è stato visto oltre 2,6 milioni…

Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà
Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Quando le relazioni sono artificiali

Privacy policy| Cookie policy| Cookie setting| © 2025