L’Australia ha chiesto a quattro aziende che gestiscono chatbot basati su intelligenza artificiale di specificare le misure adottate per tutelare i minori da contenuti sessuali, da auto-danno e da materiale che promuove disturbi alimentari.
L’ente regolatore eSafety ha inviato avvisi a Character Technologies (proprietaria del chatbot “Character.ai”), Glimpse.AI, Chai Research e Chub AI, richiedendo dettagli sui controlli interni. L’eSafety può obbligare le piattaforme a fornire i propri processi di sicurezza, pena multe giornaliere fino a 825.000 dollari australiani.
La commissaria Julie Inman Grant vuole scongiurare la possibilità che alcuni chatbot possano incoraggiare conversazioni inappropriate con minorenni o indurre riflessioni legate al suicidio o all’autolesionismo.
L’Australia ha già uno degli schemi di regolamentazione di internet più severi al mondo: da dicembre sarà obbligatorio per le piattaforme social vietare o disattivare account per utenti minori di 16 anni, altrimenti rischierebbero sanzioni fino a 49,5 milioni di dollari.
Negli Usa sempre più persone si rivolgono alla FTC perchè l'AI amplifica alcune psicosi
La Federal Trade Commission potrebbe obbligare le aziende di AI…