Il Center for Investigative Reporting fa causa a OpenAI e Microsoft

Il Center for Investigative Reporting fa causa a OpenAI e Microsoft

Il Center for Investigative Reporting (CIR), editore di Mother Jones e Reveal, ha avviato un’azione legale contro OpenAI e Microsoft. L’accusa è di aver utilizzato contenuti giornalistici protetti da copyright senza autorizzazione né compenso.

La causa, depositata presso un tribunale federale, evidenzia la preoccupazione del settore giornalistico con riferimento allo sfruttamento dei propri contenuti da parte delle aziende che si occupano di sviluppare e addestrare sistemi di intelligenza artificiale. Il CIR, organizzazione non-profit di lunga data, sostiene che questa pratica minacci la sopravvivenza del giornalismo di qualità.

Questa azione legale si unisce a simili denunce recentemente presentate da altre importanti testate giornalistiche contro OpenAI e Microsoft, segnalando una crescente tensione tra il mondo dell’editoria e quello dell’intelligenza artificiale.

Le parole della CEO

“OpenAI e Microsoft hanno iniziato a risucchiare le nostre storie per rendere il loro prodotto più potente, ma non hanno mai chiesto il permesso o offerto un compenso, a differenza di altre organizzazioni che concedono in licenza il nostro materiale”ha dichiarato Monika Bauerlein, CEO del Center for Investigative Reporting. Questo comportamento da free rider non è solo ingiusto, è una violazione del copyright. Il lavoro dei giornalisti, al CIR e ovunque, è prezioso e OpenAI e Microsoft lo sanno”.

Ha poi aggiunto: “Le aziende a scopo di lucro come OpenAI e Microsoft non possono semplicemente trattare il lavoro degli editori no-profit e indipendenti come materia prima gratuita per i loro prodotti. Se questa pratica non viene fermata, l’accesso del pubblico a informazioni veritiere sarà limitato ai riassunti generati dall’intelligenza artificiale di un panorama giornalistico in via di estinzione.


In Evidenza


I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
OpenAI: anche Mira Murati lascia

L'abbandono di Murati si aggiunge a quelli di Ilya Sutskever,…

OpenAI: anche Mira Murati lascia
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi
Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Il video di Faraday è stato visto oltre 2,6 milioni…

Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà
Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Quando le relazioni sono artificiali

Powered byReputation Manager

Privacy policy| Cookie policy| Cookie setting| © 2025