“DeepSeek deve scegliere se fermarsi o se rispondere delle conseguenze”, intervista a Guido Scorza | AI Talks #17

Nel nuovo appuntamento di AI Talks, abbiamo avuto il piacere di parlare con Guido Scorza, componente del Collegio del Garante Privacy.
“DeepSeek deve scegliere se fermarsi o se rispondere delle conseguenze”, intervista a Guido Scorza | AI Talks #17

Recentemente, il Garante Privacy ha disposto la limitazione del trattamento dei dati personali degli utenti per DeepSeek, società cinese al centro del dibattito AI per via del lancio del suo modello R1, molto performante nonostante sia stato realizzato con un budget ‘minimo’. Una combinazione che ha avuto forti conseguenze sul mercato (e in particolare sul colosso dei chip NVIDIA, crollato in borsa).

Per parlare di privacy, regolamentazione e sviluppo tecnologico, abbiamo invitato a AI Talks, il nostro format di interviste alla scoperta dell’intelligenza artificiale, Guido Scorza, componente del Collegio del Garante per la protezione dei dati personali (il Garante Privacy), che ci ha aiutato a comprendere le problematiche legate ai nostri dati personali in relazione all’uso dei modelli AI.

Inizierei subito con una domanda che facciamo a tutti i nostri ospiti: cos’è l’intelligenza artificiale?

Si tratta di una tecnologia – o forse meglio, di un’applicazione tecnologica – tutt’altro che recente, nel senso che viene da lontano, e che si pone come obiettivo quello di emulare l’intelligenza umana, qualsiasi cosa sia. Uno dei veri problemi nella definizione dell’intelligenza artificiale è rappresentato dal fatto che il termine di paragone, cioè l’intelligenza umana, è ancora privo di una definizione condivisa nella comunità scientifica.

Stiamo provando a emulare qualcosa dai contorni indefiniti. Quindi nessuna sorpresa se anche la definizione dell’intelligenza artificiale resta a sua volta inesorabilmente evanescente.

Il Garante ha fatto di nuovo notizia in questi giorni con quello che è stato definito un “blocco” dei servizi della startup cinese DeepSeek. In realtà, si tratta di una limitazione del trattamento dei dati degli utenti. Può spiegarci meglio i motivi che hanno spinto l’Autorità a procedere in tal senso, come fece all’epoca con OpenAI, e cosa significa tutto ciò per l’operatività di questi servizi?

DeepSeek è una sorta di emula proveniente dalla Cina – prodotta e gestita da due società cinesi – della più celebre ChatGPT. Si è affacciata da po’ sul mercato e ha spopolato nelle ultime settimane negli app store di mezza Europa, oltre che in giro per il mondo, protagonista di vicende finanziarie significative: dall’altra parte dell’oceano ha generato in 24 ore un vero e proprio crollo dei titoli, sostanzialmente legato al fatto che sarebbe stata prodotta con risorse straordinariamente inferiori rispetto a quelle investite nella produzione di ChatGPT e degli altri campioni digitali delle AI americane. Questo, naturalmente, ha suggerito che il valore dei loro campioni digitali domestici fosse un po’ gonfiato rispetto alla realtà.

Fatto sta, però, che il funzionamento di DeepSeek appare analogo a quello di ChatGPT. Quando questo servizio si è affacciato sul mercato, esattamente come fu per ChatGPT di OpenAI, ha inesorabilmente attratto l’interesse degli utenti prima, delle associazioni dei consumatori poi e del Garante da ultimo, anche se è probabilmente tra i primi in giro per il mondo. Con le domande di sempre: cioè, dal punto di vista della protezione dei dati personali, come è stato realizzato il servizio, su quale base giuridica sono stati raccolti e poi trattati i dati personali utilizzati per addestrare il modello, come vengono trattati i dati degli utenti e dei non utenti che vengono in rilievo del funzionamento del servizio e, soprattutto, cosa gli utenti europei di quell’app possono fare se qualcosa va storto, se non hanno il piacere che i loro dati siano coinvolti nel funzionamento dell’app, se ritengono che vi siano delle inesattezze o se vogliono vederci più chiaro in relazione al modo in cui i loro dati sono trattati. E, in particolare, essendo il servizio battente bandiera cinese – quindi di un Paese le cui regole non sono coperte da una decisione di adeguatezza rispetto alle regole del GDPR -, altra grande questione è: quali sono le misure di garanzia che sono state eventualmente adottate a tutela di questo trasferimento passivo di dati dall’Europa verso gli Stati Uniti d’America?

Si è fatto quindi quello che in questi casi normalmente si fa, cioè si è aperta un’istruttoria richiedendo alle due società cinesi che gestiscono DeepSeek maggiori informazioni. Le due società hanno avuto venti giorni per fornirci una risposta. Ne hanno in realtà impiegati due per una risposta straordinariamente sintetica e cioè “Non siamo in Italia, non operiamo in Italia, non abbiamo in programma di operare in Italia, non ci si applica la disciplina europea sulla privacy, non possiamo riconoscere di conseguenza la vostra giurisdizione”. Fine delle trasmissioni dalla Cina.

E la nostra decisione è stata quasi obbligata, nel senso che esisteva – o meglio, esiste ancora – un servizio accessibile dall’Italia e rivolto al pubblico italiano, ma il titolare del trattamento ci stava però dicendo che loro in Italia non c’erano. Da qui, la limitazione del trattamento.

"La comunicazione è del tutto insufficiente", il Garante blocca DeepSeek

Al momento, il sito di DeepSeek risulta essere ancora operativo…

Cioè, in attesa di capire di più, in attesa di vederci chiaro, nell’ambito di un’istruttoria, a questo punto ordinaria e non urgente, devi interrompere l’unica cosa che l’autorità di protezione dei dati personali può ordinare di interrompere. Quindi non l’attività, ma il trattamento dei dati personali e in particolare il trattamento dei dati personali di persone che vivono in Italia, perché quelli sono i reali confini della nostra giurisdizione. Questo ordine è partito alla volta di Pechino e poi si è assistito a ciò che oggi verifichiamo tutti, e cioè l’app che scompare dagli store, pur restando utilizzabile per chi l’aveva già scaricata e in modalità API. I colleghi europei si muovono nella stessa direzione perché le regole sono evidentemente quelle.

Cosa succede a questo punto?

Dipende da DeepSeek. L’opzione più lineare per chi ha dichiarato di non operare in Italia e non avere intenzione di operare in Italia è una chiusura radicale del servizio. Non tanto perché glielo ha ordinato il Garante, ma perché loro al Garante hanno detto di non avere intenzione di essere qui.

Nonostante il rigore delle regole, nonostante l’urgenza del provvedimento, nonostante l’immediatezza dei suoi effetti, guardiamo con generosità a chi sta dall’altra parte. Ci stanno pensando e si stanno organizzando. Se chiudessero, bene; se non chiudessero, naturalmente, bisognerà prendere in considerazione quali iniziative in termini di enforcement potranno essere e potranno essere adottate.

Credo valga la pena essere chiari. Si dice limitazione temporanea – si può tradurre giornalisticamente blocco, anche se avendo a mente che si tratta di un blocco del trattamento dei dati strumentali al funzionamento del servizio e non del servizio, perché lì siamo fuori dalla giurisdizione di di un’Autorità garante -, si deve leggere “ordine di”, e cioè la paletta rossa che il poliziotto alza mentre una macchina sfreccia sulla strada. A chi guida quella macchina fermarsi allo stop, farsi identificare, eventualmente prendere la contravvenzione se ha violato i limiti di velocità o se forzare il blocco, andare avanti e rispondere poi a valle delle conseguenze.

Naturalmente, la stradale può inseguire e fermare con le maniere forti quell’automobile; altrettanto, con maggiori difficoltà caratteristiche dell’universo immateriale del digitale, possono fare le autorità di protezione. Se dovessimo riscontrare che questa macchina prosegue la sua corsa nonostante lo stop che gli è stato intimato, è in quella direzione che si dovrà andare.

Poi siamo consapevoli della circostanza che qualsiasi stop nella dimensione digitale è aggirabile, anche attraverso l’uso di una VPN. Tutto questo è sempre vero. Guai però a dimenticare che se un’Autorità adotta un provvedimento di questo genere, adotta quel provvedimento in presenza di un pericolo per gli interessati. Come capita sulle piste da sci, quando trovi una pista chiusa e contrassegnata come pericolosa dalle autorità preposte alla sicurezza, ma tu decidi di farla. Poi se accade qualcosa eri stato avvisato.

Questo oggi è il contesto. È un contesto ormai ordinario, al quale dovremo abituarci. Non è un contesto macchiato di elementi di politica. Se questi cinesi fossero stati indiani, africani o arabi, sarebbe stata esattamente la stessa cosa. Un servizio prestato in questo Paese da parte di chi dice “le tue regole non le rispetto” è un servizio che dal nostro punto di vista va almeno cautelativamente fermato in attesa di capire meglio per quali finalità e con quali modalità vengono trattati i dati personali.

Stando alla sua metafora, qualora la macchina dovesse continuare a percorrere le strade italiane, quale sarebbe una possibile sanzione?

La sanzione della quale si discuterà all’esito dell’istruttoria è innanzitutto quella per l’inadempimento all’ordine dell’Autorità. Ed è una sanzione duplice, nel senso che è una sanzione di carattere pecuniario che va fino al 4% del fatturato globale annuo dell’azienda e in Italia, ma non starebbe eventualmente a noi accertarlo, è anche un reato, perché rendersi inadempiente a un ordine dell’autorità è un reato punito dal codice penale.

Ciò che ci sta più a cuore, però, è far luce su quali dati sono stati, vengono e verranno trattati e per quali finalità. Quello ci ha indotto ad agire e quello rappresenterà il cuore dell’istruttoria, che vi sia o meno una violazione del nostro ordine.

E i modelli di linguaggio come GPT, Claude e Gemini vengono addestrati su un’enorme mole di dati, alcuni dei quali sono sensibili – raccolti online, ma talvolta forniti dagli utenti stessi nelle conversazioni con i chatbot. Come possiamo prendere il controllo? Possiamo fare una sorta di opt-out personale per evitare la memorizzazione delle nostre conversazioni?

La disciplina europea riconosce questo diritto, è il cosiddetto diritto di opposizione, che poi traduciamo come come opt-out. Cioè il diritto di dire a quel titolare del trattamento che dichiari di aver iniziato il trattamento dei dati personali senza chiedere il permesso – sulla base del cosiddetto legittimo interesse, ossia perché doveva o perché il suo interesse o quello di qualcun altro è stato considerato dal titolare stesso prevalente rispetto al diritto alla privacy del singolo – “ieri avrai anche agito in maniera corretta, ma io oggi ti dico che non ho voglia di partecipare a questo gioco, a questo esperimento, non ho voglia che i miei dati facciano parte del tuo progetto”.

Normalmente lì il titolare del trattamento deve fermarsi, salvo naturalmente che non sia in grado di dimostrare che il suo interesse, quello che l’ha indotto alla raccolta e all’utilizzo di quel dato, resta prevalente rispetto all’interesse del singolo. Quindi sì, certamente, nel rispetto delle regole europee, chiunque ha diritto di invocare questo diritto di opposizione nei confronti delle fabbriche degli algoritmi, dei gestori delle piattaforme di servizi basati sull’intelligenza sociale.

I modelli generativi inquinano l'informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

C’è un problema un po’ più importante laddove è lo stesso fornitore di servizi a dirti “ma io le tue regole non le riconosco”. E in effetti, se parliamo di DeepSeek, oggi l’interessato italiano che veda sputar fuori come output di una qualsiasi domanda suoi dati personali non è di fatto nella condizione di bussare alla porta di DeepSeek e dire “cancellami”, perché banalmente manca lo strumento. Sulle pagine di ChatGPT, per esempio, dopo il nostro intervento, oggi c’è uno strumento che consente alle persone di rappresentare alla società la volontà di vedere i propri dati personali sottratti a quel trattamento.

Dopodiché, se prescindiamo dalla vicenda specifica di DeepSeek e allarghiamo l’orizzonte, è fuor di dubbio che il tema del diritto di opposizione sia un tema sensibile per tutti i fornitori di servizi di intelligenza artificiale generativa, o almeno per tutti quei fornitori di servizi che hanno addestrato i modelli facendo ingestion di quantità massive a mezzo web scraping di dati personali diversi.

Qui i livelli del problema sono differenti, in parte tecnici e in parte in parte giuridici. Diciamo che quello che oggi rappresenta la soglia più avanzata di adempimento a questo diritto di opposizione è quello che accade sulle pagine di ChatGPT dopo il nostro intervento, ma non solo di ChatGPT. Ovvero, io posso chiedere di sottrarre l’output del modello taluni specifici dati personali. Io posso dire a ChatGPT “non voglio leggere ‘Guido Scorza’ nell’output di qualsiasi prompt”.

ChatGPT è oggi in condizione di introdurre un filtro di fatto, senza interrompere il trattamento. Questo ha due limiti dal punto di vista della disciplina vigente. Il primo limite è evidente: la disciplina vigente dice che, se te lo chiedo, devi interrompere il trattamento di qualsiasi mio dato personale. Non sono io a doverti dire quali miei dati personali tu stai trattando e a farti l’elenco dei dati personali che voglio che tu cancelli, ma tu devi essere in condizione di cancellare tutti i dati personali che mi riguardano. E oggi non c’è fornitore di servizi di intelligenza artificiale generativa in giro per il mondo che oggi sia in condizione di farlo. Per semplificare, non hanno dentro casa un’anagrafica nella quale a ogni identificativo sia legata una certa quantità strutturata di informazioni.

L’altro problema è quello che anticipavo. Una cosa è dire “non diffondo un tuo specifico dato personale, non dirò più a nessuno le parole ‘Guido Scorza’”. Cosa diversa è interrompere un trattamento di dati personali anche nel back-end, ancorché sappiamo che nei modelli non sono fisicamente presenti come tali i dati personali. Questo è un problema non teorico, ma pratico. Perché fin tanto che il dato resta là dentro, che sia l’allucinazione o in maniera diversa, quel dato può poi essere tirato fuori. Esiste ed è accessibile a OpenAI e ad altre entità. Sembrerebbe essere anche quello che è accaduto con DeepSeek: OpenAI ha sostenuto che DeepSeek ha utilizzato proprio i dati presenti nei suoi modelli per far prima e per sviluppare la sua AI. Quindi, in qualche modo, adombra il sospetto che i dati raccolti da OpenAI siano poi finiti in Cina. E non ci sarebbero finiti se OpenAI fosse stata in grado di garantirmi davvero il diritto di opt-out.

Effettivamente ho provato a cercare il suo nome su ChatGPT e appare un errore, quindi lei non compare. Ma cosa succede se io chiedo di rimuovere i dati relativi alla mia persona, mentre un mio omonimo ha interesse ad apparire negli output di questi modelli?

Guardo al mio caso e il risultato è che se quell’omonimo ha l’ambizione che nell’output ci sia il suo nome e il suo cognome, in qualche modo, esercitando il mio diritto, ho precluso a lui la realizzazione di quell’interesse.

Però, nella dimensione giuridica, probabilmente c’è da riavvolgere il nastro prima di arrivare alla conclusione, perché naturalmente OpenAI, ma in realtà nessun fornitore di servizi di intelligenza artificiale generativa, ha mai assunto nei confronti dell’umanità né ce l’ha per una qualche previsione di legge, un obbligo a raccontare fatti o notizie di tutti noi. E quindi l’interesse che chiunque di noi può avere nell’esserci anziché nel non esserci non è un interesse giuridicamente tutelato o tutelabile. Insomma, mai potrebbe andare davanti a un giudice e chiedere di ordinare a OpenAI, piuttosto che a DeepSeek o a Meta, di fare in modo che il suo nome sia presente dentro l’output di quel modello generativo.

Quindi è evidente che c’è in qualche modo una stortura, figlia del fatto che il fornitore di quel servizio non è in grado di identificare in maniera puntuale uno Guido Scorza e distinguerlo da un altro Guido Scorza per come è stato progettato il servizio medesimo. Questo fenomeno produce conseguenze apprezzabili nella dimensione mediatica, ma meno rilevanti nella dimensione giuridica.

Mi scuso per il cambio brusco di argomento, ma il 2 febbraio è entrato in vigore l’AI Act, regolamento europeo sull’intelligenza artificiale. Cosa cambia per le aziende che adottano l’intelligenza artificiale?

Considerata l’ampia pubblicità che l’AI Act ha avuto nella fase successiva alla sua entrata in vigore, precedente alla sua progressiva diretta applicazione, io mi augurerei che chi opera nel settore si sia in qualche modo preparato alla progressiva diretta applicazione di queste norme.

Le disposizioni del regolamento diventate direttamente applicabili per prime sono quelle che cristallizzano i divieti, in particolare rispetto all’utilizzo di quelle soluzioni di AI il cui rischio è stato giudicato inaccettabile dal legislatore europeo. Mi vien da dire che nessuno nell’ultimo anno, consapevole che questo giorno sarebbe arrivato, ha investito in quella direzione. Ma se qualcuno ci ha investito o se qualcuno aveva iniziato prima a produrre o distribuire servizi basati sull’intelligenza artificiale in direzioni o in casi d’uso oggi considerati a rischio insostenibile e quindi vietati, dovrà evidentemente interrompere quel tipo di servizio, perché questa è un po’ l’anima dell’AI Act.

Il resto del cammino è ancora ancora lungo e pieno di incertezze. La diretta applicazione dell’AI Act si inserisce in un contesto internazionale che in effetti non è lontano dalle cose delle quali abbiamo parlato sin qui. Da una parte dell’oceano, negli Stati Uniti d’America, si deregolamenta l’AI, almeno asseritamente per far correre di più il settore. Dall’altra parte, cioè guardando verso la Cina, accade quello di cui abbiamo parlato a proposito di DeepSeek, c’è una forte accelerazione in un contesto nel quale i livelli di protezione sono molto bassi.

È ovvio che questa è la partita che si giocherà nei mesi che verranno sullo scacchiere geopolitico. Per stare di più alle cose di casa nostra, dove in questo momento più che grandi produttori globali di modelli vi sono grandi utilizzatori, evidentemente il tema è soprattutto quello di scongiurare il rischio di portarsi dentro casa soluzioni che qui sono illegittime. Perché è certo che, se scelgo di usare una di queste soluzioni e poi delle conseguenze del suo uso rispondo io, è magra la consolazione di dire “andrò a rivalermi sul fornitore che avrebbe dovuto dirmi ‘guarda che però in Europa non puoi usare questa soluzione'”.

Quindi è un cambio di scenario per molti versi analogo a quello che vi fu nel 2018 con l’entrata in vigore del GDPR. Forse la differenza tra allora e oggi è che, nel caso dell’AI Act, la diretta applicabilità è graduale.

Autonomia, digital distrust ed effetto mosaico, parliamo di AI e diritto con Oreste Pollicino | AI Talks #14

Parliamo di intelligenza artificiale e diritto con Oreste Pollicino, Professor…

E tra l’altro non aiuta anche il fatto che le linee guida relative all’applicazione di un solo articolo siano oltre 130 pagine. Immagino che per le aziende sia difficile orientarsi. Lei pensa che questo panorama regolamentare induca le aziende a non investire nello sviluppo tecnologico all’interno dell’Unione Europea?

Mi auguro che non accada, ma è indubbiamente un rischio che non possiamo negare esista. Io credo che qui, dal punto di vista delle istituzioni, si tratti di essere molto bravi nel rendere accessibili le regole, nell’accompagnare il tessuto imprenditoriale europeo nel rispetto di quelle regole. E credo che questo vada fatto esattamente per scongiurare il rischio non solo e non tanto di un ritardo commerciale o tecnologico, ma soprattutto che le imprese, le persone e la società nel suo complesso possano disinnamorarsi o addirittura arrivare a odiare le regole, considerandole responsabili del disagio che si registra o che si registrerà sui mercati globali.

Qui la vera scommessa: scrivere le regole che servono e non una regola di più. E quindi, da un certo punto di vista, darci una regolata rispetto alla ipertrofia normativa che ha caratterizzato la produzione regolamentare italiana ed europea nell’ultimo trentennio.

Ma una volta che le regole sono state varate, l’altra grande scommessa è impegnarsi in un’attività di accompagnamento e di carattere divulgativo, cioè raccontare il perché dell’importanza di quelle di quelle regole. Se dovesse accadere questo fenomeno di ribellione alla regolamentazione, la daremmo veramente vinta a chi ha raccontato al mondo che le regole in sé, i diritti e le libertà, rappresentano un freno all’innovazione. Non è mai stato così nella storia dell’umanità, ma oggi esiste il rischio che questo messaggio passi e sarebbe pericolosissimo.

Oltre a questa ipertrofia a livello europeo, si riscontrano delle difficoltà in termini di armonizzazione. Come siamo messi in termini di regolamentazione AI in Italia? E come si può far andare a braccetto le due normative?

Quando a Bruxelles si decide di normare una certa materia attraverso un regolamento, e quindi attraverso un tipo di regola direttamente applicabile in tutti i Paesi dell’Unione, il modo migliore per scongiurare il rischio di divergenze regolamentari, o anche semplicemente di asimmetrie, è astenersi dal regolamentare a livello nazionale.

Fin qui, la strada che Governo e Parlamento hanno scelto in materia di AI è per la verità diversa, cioè aggiungere un layer di regolamentazione nazionale in materia di AI, cercando di scriverlo (è tuttora in lavorazione) quanto più coerente possibile con quello europeo. Ma la verità è che, ogni volta che si pone mano a livello nazionale su un framework regolamentare europeo, è particolarmente difficile, stante la differenza tra i diversi ordinamenti, scongiurare il rischio di asimmetrie.

Quindi dobbiamo andare avanti con prudenza. Oggi non ci sono regole altre rispetto all’AI Act a livello nazionale, sono in discussione. Ecco, c’è da augurarsi che quelle che verranno approvate saranno le minime indispensabili davvero per rendere più concreta l’attuazione in Italia della disciplina europea, ma senza aggiungere nulla, perché ogni addizione rischia di trasformarsi in un’asimmetria.


Ultime news


Un film realizzato con l’intelligenza artificiale può vincere un Oscar

La nuova formulazione del regolamento dell'Academy precisa però che il…

Un film realizzato con l’intelligenza artificiale può vincere un Oscar
OpenAI pronta a rilevare Chrome se Google sarà costretta a venderlo

Per OpenAI, l’integrazione di Google Chrome sarebbe un acceleratore decisivo…

OpenAI pronta a rilevare Chrome se Google sarà costretta a venderlo
Huawei sfida NVIDIA: pronta al lancio del chip AI Ascend 910C

Un'alternativa necessaria dopo le restrizioni USA

Huawei sfida NVIDIA: pronta al lancio del chip AI Ascend 910C
Dire “per favore” e “grazie” ai modelli è uno spreco di elettricità?

"Decine di milioni di dollari ben spesi - ha dichiarato…

Dire “per favore” e “grazie” ai modelli è uno spreco di elettricità?

In Evidenza


I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi
Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Il video di Faraday è stato visto oltre 2,6 milioni…

Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà
Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Quando le relazioni sono artificiali

Privacy policy| Cookie policy| Cookie setting| © 2025