Secondo quanto ricostruito dalla Cnbc, la Cina sta lavorando ad un progetto di legge per approfondire le misure di sicurezza per i minorenni nell’utilizzo dei chatbot di intelligenza artificiale. L’obiettivo del governo cinese è quello di impedire all’AI di influenzare le emozioni umane in modi che potrebbero favorire episodi di autolesionismo nei più giovani.
Le nuove normative sono state proposte dall’Amministrazione del cyberspazio della Cina, l’ente pubblico che si occupa della regolamentazione della rete, e si focalizzano sui sistemi di AI interattivi definiti come “simili agli umani”, presumibilmente i chatbot ed eventuali robot. Secondo l’orientamento proposto, i chatbot non dovrebbero essere in grado di generare contenuti con un forte impatto sulle persone, in modo particolari i più giovani, né ricorrere alla violenza verbale o alla manipolazione emotiva.
Secondo il rapporto, le norme prevedono che i minorenni necessitino del consenso del tutore per usare l’AI ai fini di compagnia emotiva con dei limiti di tempo ben definiti. Inoltre, le piattaforme dovrebbero essere in grado di stabilire se un utente è minorenne anche se non rivela la propria età e, in caso di dubbio, applicare impostazioni per i minori. Ogniqualvolta un utente menziona espressamente temi come il suicidio o l’autolesionismo, l’azienda fornitrice di tecnologia è tenuta a fare in modo che una persona responsabile prenda il controllo della conversazione e contatti immediatamente il tutore dell’utente o una persona designata.

E se la Cina non potesse vincere la partita dell’AI come pensano in tanti?
Un editoriale di Project Syndacate sconfessa la narrazione dell'imbattibilità della…














