ChatGPT denunciato per diffamazione

ChatGPT denunciato per diffamazione

Il giornalista radiofonico Mark Walters ha denunciato OpenAI per diffamazione, attivando un’azione presso la Corte superiore della Contea di Gwinnett in Georgia. ChatGPT, il chatbot sviluppato dalla società, è accusato di aver fornito informazioni false che hanno danneggiato la reputazione di Walters.

Cosa è successo?

Tutto è iniziato quando un altro giornalista, Fred Riehl, ha chiesto a ChatGPT di riassumere delle accuse presentate da organizzazioni no-profit contro Robert Ferguson e Joshua Studor. Tuttavia, il riassunto fornito da ChatGPT era completamente errato e attribuiva le medesime accuse a Mark Walters anziché agli imputati originali. Riehl ha verificato le informazioni e ha concluso che erano false.

Basandosi su questi fatti, Walters ha deciso di citare in giudizio OpenAI per diffamazione, sostenendo che non era coinvolto nella vicenda e che le informazioni fornite da ChatGPT hanno danneggiato la sua reputazione.

Un caso simile era stato sollevato alla fine di marzo 2023 in Australia:

Come possono accadere simili errori?

Gli esperti attribuiscono questi errori a diversi fattori:

  • l’addestramento dell’AI da parte degli esseri umani, che potrebbe risultare incompleto o viziato da bias;
  • l’incapacità di ChatGPT di distinguere tra verità e falsità, in quanto il suo funzionamento – come quello degli altri modelli di linguaggio attualmente disponibili – si basa su un modello probabilistico, che lo porta a produrre un testo senza realmente comprenderlo;
  • l’incompletezza e/o non chiarezza dei prompt utilizzati dall’utente, che potrebbe chiedere al chatbot di fornire output senza definirne le caratteristiche.

Questa combinazione può portare a risposte apparentemente convincenti ma completamente errate, in gergo denominate “allucinazioni”.

Le questioni al centro del caso

La sentenza in cui culminerà il caso in esame è destinata a rappresentare una decisione di grande rilevanza per il futuro dell’intelligenza artificiale generativa. Questa potrà infatti determinare chi è responsabile della produzione di informazioni errate da parte dei modelli di linguaggio.

Inoltre, sarà fondamentale stabilire se il disclaimer fornito da OpenAI, che avverte della possibile generazione di risposte errate da parte di ChatGPT, sia sufficiente per esonerare l’azienda dalla responsabilità legale.


Ultime news


USA e Cina dovrebbero collaborare in ambito AI? Lo propone un diplomatico

Stephen Orlins, presidente del National Committee on United States-China Relations,…

USA e Cina dovrebbero collaborare in ambito AI? Lo propone un diplomatico
ChatGPT, se ingannato con un “gioco di ruolo”, diventa un hacker

L’esperimento del ricercatore Simonovich dimostra come sia possibile aggirare i…

ChatGPT, se ingannato con un “gioco di ruolo”, diventa un hacker
Le donne usano ChatGPT il 16% in meno rispetto agli uomini: lo studio

L'adozione di ChatGPT ha uno sbilanciamento di genere; la barriera…

Le donne usano ChatGPT il 16% in meno rispetto agli uomini: lo studio
ChatGPT accusa una persona dell’omicidio dei figli, lui denuncia OpenAI

​Un cittadino norvegese di nome Arve Hjalmar Holmen si è…

ChatGPT accusa una persona dell’omicidio dei figli, lui denuncia OpenAI
La sudcoreana FuriosaAI non vuole farsi acquistare da Meta

La decisione non sarebbe stata dettata da questioni economiche, ma…

La sudcoreana FuriosaAI non vuole farsi acquistare da Meta

In Evidenza


I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi
Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Il video di Faraday è stato visto oltre 2,6 milioni…

Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà
Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Quando le relazioni sono artificiali

Privacy policy| Cookie policy| Cookie setting| © 2025