I creativi al governo: “Attenti al lato oscuro dell’AI, diritti in pericolo”

I creativi al governo: “Attenti al lato oscuro dell’AI, diritti in pericolo”

L’appello delle associazioni creative al governo

Mentre a Bruxelles si discute l’approvazione dell’AI Act, 34 associazioni e numerose migliaia di autori italiani uniscono le forze per lanciare un appello al governo. Gli enti, provenienti da cinema, editoria, musica e altri settori culturali, mettono in luce i rischi legati all’utilizzo dell’AI, sottolineando la necessità di una regolamentazione equilibrata.

Sebbene riconoscano il potenziale positivo dell’AI nel migliorare la vita e la creatività, le associazioni esprimono preoccupazione per il lato oscuro della tecnologia, in particolare evidenziando che l’AI generativa, addestrata su vasti dataset di contenuti protetti da copyright, può minacciare il lavoro originale degli autori, artisti e imprese culturali, introducendo rischi economici e etici significativi.

Regolamentazione urgente

Le associazioni chiedono una regolamentazione che garantisca i diritti fondamentali degli autori e favorisca la trasparenza nell’addestramento degli algoritmi. Sottolineano il pericolo che l’AI possa ingannare il pubblico e insistono affinché l’AI Act ponga la massima attenzione sulla trasparenza delle fonti.

Rivolgendosi al governo italiano, le associazioni escludono soluzioni basate sull’autoregolamentazione e chiedono un impegno forte per una regolamentazione che, pur promuovendo lo sviluppo dell’AI, tuteli la creatività umana e i contenuti culturali del paese.

I sottosegretari dalla parte dei creativi

La protesta è sostenuta dai due sottosegretari al ministero della Cultura, Lucia Borgonzoni e Gianmarco Mazzi. Borgonzoni sottolinea l’impegno nel difendere il diritto d’autore, riconoscendo sia le potenzialità che i rischi dell’AI. Mazzi, a sua volta, afferma che norme chiare ed efficaci sono essenziali, con il governo italiano attivamente coinvolto nella definizione del regolamento europeo sull’AI.


Ultime news


Altri 275 mln per la startup di sorveglianza Flock Safety; valutazione a 7,5 mld

I fondi saranno investiti per espandere la presenza sul mercato,…

Altri 275 mln per la startup di sorveglianza Flock Safety; valutazione a 7,5 mld
Dragone all’attacco, USA in difesa tra fratture e strette di mano segrete | Weekly AI

Weekly AI è la nostra rassegna settimanale sulle notizie più…

Dragone all’attacco, USA in difesa tra fratture e strette di mano segrete | Weekly AI
Keir Starmer come Musk? Il leader britannico ‘assume’ l’AI nel settore pubblico

La decisione è stata accolta con opinioni contrastanti e i…

Keir Starmer come Musk? Il leader britannico ‘assume’ l’AI nel settore pubblico
La personalizzazione di Gemini passerà dalle tue ricerche su Google

La funzione Gemini with Personalization sarà resa disponibile gradualmente nel…

La personalizzazione di Gemini passerà dalle tue ricerche su Google
OpenAI chiede a Trump di allentare le regolamentazioni per competere con la Cina

OpenAI ha iniziato un'operazione di influenza del prossimo “Piano d’azione…

OpenAI chiede a Trump di allentare le regolamentazioni per competere con la Cina

In Evidenza


I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi
Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Il video di Faraday è stato visto oltre 2,6 milioni…

Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà
Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Quando le relazioni sono artificiali

Privacy policy| Cookie policy| Cookie setting| © 2025