Secondo un’analisi del China Media Project, la Cina starebbe accelerando lo sviluppo di un complesso sistema di censura automatizzata basato sull’intelligenza artificiale, capace di filtrare e bloccare in tempo reale contenuti ritenuti sensibili: dalle critiche al Partito Comunista alle discussioni su eventi storici come la strage di Tiananmen (di cui molto si è già discusso in occasione del lancio di DeepSeek).
La Cyberspace Administration of China impone regole sempre più severe alle aziende che sviluppano chatbot e modelli linguistici: devono “promuovere i valori socialisti” e ottenere autorizzazioni governative prima di essere messi sul mercato. I risultati sono evidenti: assistenti virtuali come ERNIE Bot e Tongyi Qianwen eludono domande politiche, cancellano risposte già scritte o cambiano discorso. I filtri di DeepSeek, che fino a pochi mesi fa orientavano le risposte in una visione filo-comunista, ora appaiono più spregiudicati e netti.
Dietro questa apparente rigidità c’è un lavoro tecnologico imponente: enormi database catalogano centinaia di migliaia di espressioni proibite, alimentando algoritmi che classificano i contenuti in decine di categorie sensibili. La censura diventa così predittiva, rapida, invisibile. Ad un livello del tutto nuovo rispetto a quanto fatto in precedenza.
E fuori dai confini cinesi cresce la preoccupazione: attivisti e osservatori temono che questi modelli possano essere esportati.

Baidu ha reso il suo modello Ernie X1 open-source: un altro "momento DeepSeek"?
La decisione di Baidu potrebbe avere delle implicazioni sul mercato…