Cina, nuova legge per la sicurezza dei minori nell’uso dell’AI: persone pronte all’intervento in caso di pericolo

Secondo il progetto di legge ogni azienda di AI dovrebbe avere una persona in grado di intervenire in caso di pericolo di suicidio o autolesionismo

1 min.

Cina, nuova legge per la sicurezza dei minori nell’uso dell’AI: persone pronte all’intervento in caso di pericolo

Secondo quanto ricostruito dalla Cnbc, la Cina sta lavorando ad un progetto di legge per approfondire le misure di sicurezza per i minorenni nell’utilizzo dei chatbot di intelligenza artificiale. L’obiettivo del governo cinese è quello di impedire all’AI di influenzare le emozioni umane in modi che potrebbero favorire episodi di autolesionismo nei più giovani.

Le nuove normative sono state proposte dall’Amministrazione del cyberspazio della Cina, l’ente pubblico che si occupa della regolamentazione della rete, e si focalizzano sui sistemi di AI interattivi definiti come “simili agli umani”, presumibilmente i chatbot ed eventuali robot. Secondo l’orientamento proposto, i chatbot non dovrebbero essere in grado di generare contenuti con un forte impatto sulle persone, in modo particolari i più giovani, né ricorrere alla violenza verbale o alla manipolazione emotiva.

Secondo il rapporto, le norme prevedono che i minorenni necessitino del consenso del tutore per usare l’AI ai fini di compagnia emotiva con dei limiti di tempo ben definiti. Inoltre, le piattaforme dovrebbero essere in grado di stabilire se un utente è minorenne anche se non rivela la propria età e, in caso di dubbio, applicare impostazioni per i minori. Ogniqualvolta un utente menziona espressamente temi come il suicidio o l’autolesionismo, l’azienda fornitrice di tecnologia è tenuta a fare in modo che una persona responsabile prenda il controllo della conversazione e contatti immediatamente il tutore dell’utente o una persona designata.

E se la Cina non potesse vincere la partita dell’AI come pensano in tanti?

Un editoriale di Project Syndacate sconfessa la narrazione dell'imbattibilità della…


Ultime news


Google ha stretto un accordo multimiliardario con la startup Thinking Machines Lab

L'intesa garantirà alla startup l'accesso ai sistemi Google basati sulle…

Google ha stretto un accordo multimiliardario con la startup Thinking Machines Lab
OpenAI non resta indietro sulla sicurezza: testato GPT-5.4 Cyber con gli stati della Five Eyes

L'obiettivo è fornire agli stati strumenti avanzati per l'individuazione delle…

OpenAI non resta indietro sulla sicurezza: testato GPT-5.4 Cyber con gli stati della Five Eyes
Meta monitorerà i suoi dipendenti al PC per creare nuovi dataset di addestramento per l’AI

L'obiettivo dell'azienda è colmare i punti deboli dei modelli AI…

Meta monitorerà i suoi dipendenti al PC per creare nuovi dataset di addestramento per l’AI
Tesla ha registrato il suo assistente vocale alla guida AI in Cina

La Cina rappresenta il secondo mercato globale per Tesla, con…

Tesla ha registrato il suo assistente vocale alla guida AI in Cina

In Evidenza


Intelligenza artificiale: prepararsi al 2026 | Il report di AI News

Il nuovo report di AI News per non farsi sorprendere…

Intelligenza artificiale: prepararsi al 2026 | Il report di AI News
AI, bolla o non bolla? Il parere degli esperti non è unanime

Ne abbiamo intervistati cinque per unire i puntini

AI, bolla o non bolla? Il parere degli esperti non è unanime
Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

Privacy policy| Cookie policy| Cookie setting| © 2026