L’attivista statunitense Robby Starbuck ha fatto causa a Google presso la corte dello stato del Delaware, sostenendo che i chatbot AI del colosso statunitense hanno prodotto informazioni “false e oltraggiose” nei suoi confronti e chiedendo un risarcimento danni da 15 milioni di dollari.
Starbuck ha dichiarato che i chatbot di Google, fra cui Bard, Gemma e Gemini hanno diffuso informazioni false sul suo conto etichettandolo come “stupratore di bambini”, “abusatore sessuale seriale” e “shooter” (in italiano “sparatutto”, ovvero persona che difende e promuove l’utilizzo di armi per fini di giustizia personale). Secondo l’attivista, queste false notizie diffuse dall’AI di Google hanno contribuito a creagli un grande danno di reputazione che ha danneggiato la sua immagine pubblica e messo a rischio la sua incolumità, ricollegandosi al recente assassinio dell’attivista conservatore Charlie Kirk.
Per spiegare l’incidente, il portavoce di Google Jose Castaneda ha affermato che la maggior parte delle informazioni fuorvianti e diffamatorie espresse su Starbuck erano legate alle allucinazioni del modello Bard, alle quali Google sta lavorando da tempo per trovare una soluzione. “Le allucinazioni sono un problema ben noto a tutti gli LLM, che segnaliamo e ci impegniamo a ridurre al minimo” ha detto Castaneda.
Non è la prima causa intentata da Starbuck contro una società di AI. Nel mese di aprile l’attivista ha denunciato Meta Platforms sempre per aver diffuso false informazioni tramite AI. In quell’occasione Starbuck era stato associato alle proteste violente avvenute al Congresso statunitense il 6 gennaio 2021 in seguito alla vittoria di Joe Biden, contestata da Trump, alle elezioni presidenziali. La vicenda legale si è risolta con un accordo grazie al quale Starbuck è stato nominato come consulente di Meta per correggere i pregiudizi politici nei modelli di AI dell’azienda.
Starbuck ha commentato la vicenda affermando che “nessuno, a prescindere dalle proprie convinzioni politiche, dovrebbe mai vivere una situazione del genere” e auspicando che il suo caso possa essere utile a “pretendere un’intelligenza artificiale trasparente e imparziale, che non possa essere utilizzata come arma per danneggiare le persone”.
Se ti informi con l'AI puoi leggere notizie sbagliate quasi una volta su due
Una ricerca ha analizzato 3000 risposte generate da AI su…
