AI e giustizia: la testimonianza di un defunto in un tribunale dell’Arizona

Nel corso di un'udienza presso un tribunale dell'Arizona, la famiglia di un defunto ha scritto delle dichiarazioni trasmesse con la sua voce
AI e giustizia: la testimonianza di un defunto in un tribunale dell’Arizona

L’applicazione dell’intelligenza artificiale trova importanti sbocchi anche nel campo dell’amministrazione della giustizia. È infatti in questo contesto che si deve collocare quanto andato in scena in un’aula di tribunale dell’Arizona, dove, durante un processo per omicidio, una voce generata con AI, con tanto di supporto immagine, ha permesso ai famigliari di una vittima di omicidio, Chris Pelkey, di poter deporre una testimonianza con la sua voce nella quale raccontava al pubblico, in particolare rivolgendosi al suo carnefice, le conseguenze di quel suo gesto che nel 2021 aveva causato il suo decesso a colpi di arma da fuoco.

I temi trattati all’interno dell’articolo

Le dichiarazioni della vittima

Come riportato da Quotidiano Nazionale, le dichiarazioni rilasciate dalla versione digitale dell’allora 30enne Chris Pelkey hanno occupato la fase dibattimentale del cosiddetto victim impact statement, ovvero quella prassi giudiziaria in vigore negli Usa che consente alle vittime o ai loro familiari di esprimere l’impatto emotivo del crimine durante la fase di determinazione della pena. Le dichiarazioni, scritte dalla famiglia, sono state le seguenti: “Non ho mai avuto la possibilità di dire addio alla mia famiglia. Non ho potuto vedere mio nipote crescere. Gabriel, tu hai scelto di togliermi tutto questo“.

Per arrivare ad avere una vera e propria voce riconducibile e identificabile con quella della vittima è stato però necessario completare una serie di passaggi che hanno istruito un modello AI. Attraverso una serie di registrazioni audio e video, fornite dalla famiglia della vittima, è stato possibile isolare le caratteristiche vocali di Pelkey, che sono state poi utili all’addestramento del modello prima della stesura effettiva del testo pronunciato poi in tribunale.

Le implicazioni tecniche e morali

Sul tema dell’applicazione dell’AI in campo giudiziario esiste un ampio dibattito che interseca questioni tecniche e di avanguardia con alcune preoccupazioni morali ed etiche. Temi come l’autenticità, ovvero il grado di certezza che la persona assente si sarebbe pronunciata in quel modo, e il pericolo di manipolazione sono al centro di esso con il rischio che si prefigurino anche gli estremi per il tentativo di fabbricazione di prove false per secondi fini creando dei pericolosi precedenti legali. L’impatto psicologico inoltre non è da considerarsi come meno importante e secondario, poiché la riesumazione di alcune dichiarazioni o comportamenti particolarmente impattanti di una vittima possono avere un’influenza molto determinante sul giudice o la giuria che dovranno pronunciare il verdetto finale.

L’intelligenza artificiale nelle aule di giustizia | Weekly AI news #35

35 borsisti ingaggiati a Bologna per innovare il sistema giudiziario.…


Ultime news


Il linguaggio non basta: secondo i migliori ricercatori il futuro dell’AI è nelle immagini mentali

Alcuni importanti ricercatori si stanno concentrando su dei nuovi modelli…

Il linguaggio non basta: secondo i migliori ricercatori il futuro dell’AI è nelle immagini mentali
L’accordo fra Mattel e OpenAI che può rivoluzionare i giocattoli per bambini

L'accordo sottoscritto prevede il lancio entro fine anno di una…

L’accordo fra Mattel e OpenAI che può rivoluzionare i giocattoli per bambini
Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang
Aperta, democratica e sovrana. Ecco l’AI secondo Jensen Huang di Nvidia

Il CEO di Nvidia Jensen Huang ha rilasciato diverse dichiarazioni…

Aperta, democratica e sovrana. Ecco l’AI secondo Jensen Huang di Nvidia

In Evidenza


L’AI Act sta facendo litigare un bel po’ di persone: ce ne siamo accorti all’AI Week

Alec Ross ha definito l'AI Act "scartoffie", Brando Benifei una…

L’AI Act sta facendo litigare un bel po’ di persone: ce ne siamo accorti all’AI Week
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi
Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Il video di Faraday è stato visto oltre 2,6 milioni…

Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà
Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Quando le relazioni sono artificiali

Privacy policy| Cookie policy| Cookie setting| © 2025