Un’intelligenza artificiale di riconoscimento facciale ha segnalato una donna per rapina portando gli agenti della polizia di Detroit, USA, ad arrestarla; ma era tutto un errore: l’algoritmo dell’AI aveva compiuto uno scambio di persona.
Sventurata protagonista della vicenda una donna afroamericana di 32 anni, Porcha Woodruff. I fatti risalgono a febbraio ma sono diventati di dominio pubblico in questi giorni perché la donna ha deciso di portare in tribunale la città di Detroit.
Al momento dell’arresto era incinta e all’ottavo mese di gravidanza.
I temi trattati all’interno dell’articolo
Un brutto incubo
Per Woodruff è stato un enorme shock. Sei agenti si sono presentati di fronte alla sua abitazione alle otto di mattina del 16 febbraio mentre usciva per portare i figli di 6 e 12 anni a scuola. Gli agenti avevano un mandato di arresto per una rapina con furto d’auto avvenuta circa due settimane prima. Sul momento la donna ha pensato ad uno scherzo, poi è subentrato semplicemente lo sgomento.
Gli agenti l’hanno accompagnata fino al Detroit Detention Center, dove è stata trattenuta per undici ore e interrogata ripetutamente. Il suo iPhone è stato poi confiscato in ricerca di prove. La sera seguente la donna è stata rilasciata su cauzione di 100.000 dollari. C’è mancato poco, inoltre, che la vicenda non finisse ben più tragicamente. Dopo poche ore Woodruff è stata colta da malore e in ospedale le è stata diagnosticata una severa disidratazione e una grande crisi da ansia e stress, che fortunatamente non ha influito sulla gravidanza.
Un mese più tardi, poco prima del parto, è stata scagionata da tutte le accuse: il procuratore della contea di Wayne ha riferito di uno scambio di persona causato dall’errore dell’intelligenza artificiale.
Errore di algoritmo o di processo?
Il software di riconoscimento facciale in questione aveva comparato le immagini della vera responsabile del reato (in possesso delle forze dell’ordine) con altre fotografie presenti nel database della polizia. La banca dati conteneva anche una foto di Woodruff risalente ad un fermo per guida con patente scaduta del 2015. Secondo l’AI i due profili corrispondevano. Sottoposta l’immagine vecchia di otto anni alla donna rapinata, questa l’aveva indicata come la responsabile del furto. Era ovviamente impossibile: non solo al momento dei fatti era già visibilmente incinta (un dettaglio mai menzionato dalla vittima) ma dopo otto anni differiva anche fisicamente da quella fotografia.
La denuncia di Woodruff sottolinea l’assurdità di affidarsi ad una AI senza opportune verifiche ed accompagnamento umano. Senza seguire, insomma, quel principio che prende il nome di Human In The Loop.
L’unica prova a supporto della colpevolezza della donna era algoritmica. A seguito di essa, sembra essere subentrata una rigidità che ha preso il sopravvento su ogni capacità di giudizio degli inquirenti.
“Il solo riconoscimento facciale – riporta la denuncia presentata da Woodruff e dal suo avvocato – non può costituire motivo probabile per gli arresti, poiché l’identificazione di un computer è soggetta a errori che gli esseri umani potrebbero commettere anche da soli. Nonostante il suo potenziale, la dipendenza delle forze dell’ordine dal riconoscimento facciale ha portato ad arresti ingiusti, causando umiliazioni, imbarazzo e lesioni fisiche, come evidente in questo caso specifico”.
I precedenti
Non è in effetti la prima occasione in cui avvengono casi simili. È la sesta volta che l’AI provocherebbe una falsa accusa in seguito ad un riconoscimento errato negli USA.
A vantare il primato di questa catena di errori pare essere proprio la polizia di Detroit. Nel 2020 si era resa protagonista di quello che è considerato il primo caso noto di arresto ingiusto che coinvolge il riconoscimento facciale.
James White, capo del dipartimento di Detroit, ha espresso profonda preoccupazione per le accuse. “Stiamo affrontando la questione molto seriamente – ha dichiarato alla CNN – ma al momento non possiamo commentare ulteriormente a causa della necessità di ulteriori indagini”.
L’AI e la questione razziale
Il caso è strettamente connesso con un tema vastissimo, ossia la caratterizzazione ‘culturale’ delle AI. La denuncia presentata si concentra infatti anche sul fatto che Woodruff si sarebbe sentita vittima di discriminazione razziale.
“Le pratiche di tecnologia di riconoscimento facciale – continua la denuncia – hanno dimostrato di identificare erroneamente i cittadini afroamericani in una percentuale superiore rispetto agli altri, violando la parità di trattamento garantita dal Civil Rights Act del Michigan del 1976”.
Uno studio governativo statunitense condotto dall’Istituto Nazionale di Standard e Tecnologia, sottolineava già nel 2019 che molti algoritmi di riconoscimento facciale occidentali sono più propensi a compiere errori di identificazione randomica sulle minoranze etniche (nativi americani, afroamericani o asiatici) piuttosto che sulle persone di etnia caucasica.
I test avevano rilevato che alcuni algoritmi erano fino a 100 volte più inclini a confondere due persone non bianche diverse. Di fronte a tali preoccupazioni, diverse città statunitensi (tra cui San Francisco e Somerville, nel Massachusetts) avevano vietato l’uso del riconoscimento facciale da parte delle autorità cittadine.