Il nuovo appuntamento di AI Talks, il nostro format di interviste alla scoperta dell’intelligenza artificiale, è con Oreste Pollicino, Full Professor of Constitutional Law and AI regulation presso l’Università Bocconi.
Il professor Pollicino è anche founder di Oreste Pollicino Aidvisory, presidente del Centre in Digital Constitutionalism and Policy di Bruxelles e board member della European Agency for Fundamental Rights.
Iniziamo subito con una domanda che poniamo a tutti i nostri ospiti: cos’è l’intelligenza artificiale?
Bella domanda. Io inizierei, anche per un esercizio di modestia, dal cercare di capire cosa non è. Quello che non è, e spesso invece si pensa che sia, è una tecnologia come le altre. Non è una semplice tecnologia, ma un ecosistema digitale, cioè un contenitore che ha vari ingredienti: la numerosissima quantità di dati, l’automazione e la forza computazionale. Sono elementi che si riscontrano nei processi di automazione algoritmica ormai da molti anni, ma ovviamente sono sempre più sofisticati ed evoluti.
Quindi, che cosa è? O meglio, qual è l’elemento caratterizzante? A mio avviso – ma non solo a mio avviso, basti leggere la definizione che si ha nel famigerato AI Act – l’elemento caratterizzante più importante è quello dell’autonomia. Autonomia che si differenzia da automazione. Sembra banale, ma non lo è. L’automazione algoritmica è anch’essa parte dei processi di AI, ma il concetto di autonomia è molto importante anche dal punto di vista del diritto costituzionale, perché caratterizza un meccanismo che ha la propensione, l’attitudine a disconnettersi. In senso kantiano, possiamo chiamarlo self-governance. Ad avere una auto-organizzazione in qualche modo disconnessa, distinta concettualmente e tecnicamente da quella umana. Questo è il vero punto.
Poi si parla anche di inferenza e di adattabilità, che sono altri due elementi fondamentali, ma questo elemento dell’autonomia secondo me va enfatizzato perché spesso si fa una grande confusione. Con l’intelligenza artificiale di carattere generativo si assiste a uno stacco tecnologico, quello dell’autonomia. Tant’è vero che questo concetto è stato enfatizzato nella legislazione rilevante quando è esploso il fenomeno ChatGPT.
Quindi cosa c’è veramente a rischio? Senza essere distopici, ma neanche con un orientamento utopistico, si può dire che il costituzionalista europeo deve preoccuparsi del principio personalistico. Perché se autonomia vuol dire self-governance e disconnessione potenziale rispetto al controllo umano, è ovvio che noi dobbiamo preservare il principio personalistico molto più nell’ecosistema digitale AI rispetto ad altre tecnologie.
E a tal proposito, con riferimento alla regolamentazione europea, l’AI Act è entrato finalmente in vigore, ma l’implementazione effettiva avverrà per step. Quali sono secondo lei i punti di forza di questo regolamento e le sue potenziali criticità?
Il principale punto di forza è quello che definirei un ripensamento rispetto a quello che è successo prima che l’AI Act fosse definito in maniera finale. Cioè, quello che ha fatto Altman quando ha messo in commercio il suo prodotto, un prodotto clamorosamente innovativo come ChatGPT sul mercato europeo. Quando l’ha lanciato, non ha dovuto fare alcun tipo di sperimentazione; o meglio, non ha dovuto condividere nessun tipo di elementi che provassero una sperimentazione. Magari l’avrà fatta, ma qui si parla di accountability. Nessun tipo di autorizzazione, nessun tipo di licenza. Non esiste nessuna industria al mondo – penso a quella automobilistica – che permetta a uno dei suoi produttori di mettere sul mercato un prodotto potenzialmente distruttivo senza una preventiva autorizzazione, senza una preventiva compliance.
Quindi il grande vantaggio dell’AI Act è quello di prevedere tutta una serie di oneri piuttosto gravosi, soprattutto per l’intelligenza artificiale a fini generali, general-purpose, che devono pre-esistere rispetto alla messa sul mercato. Quindi parliamo di un grande valore aggiunto: quello della sicurezza del prodotto.
Allo stesso tempo, però, proprio questo valore aggiunto è il suo tallone d’Achille. La sicurezza del prodotto è soltanto uno degli elementi che caratterizzano un ecosistema. È giusto partire come ha fatto la Commissione dalla sicurezza del prodotto, ma poi bisognava, secondo me, cercare di far emergere in maniera più evidente la possibilità di una lesione almeno potenziale di tutta un’altra serie di diritti fondamentali. Dalla sicurezza del prodotto a una questione più di diritto costituzionale legata alla tutela dei diritti fondamentali in gioco, che sono tantissimi.
Quello che è successo, di fatto, è che questa proposta della Commissione non poteva essere del tutto stravolta dal Parlamento e dal Consiglio. Forse non doveva essere stravolta, ma non convivono benissimo le due anime: quella di sicurezza del prodotto e quella legata alla tutela dei diritti fondamentali. Il modo stesso in cui il contenuto viene veicolato dal punto di vista della sintassi giuridica è quello tipico della sicurezza del prodotto, di una dimensione economicistica, che va bene, perché parliamo di sicurezza nel mercato unico europeo, ma c’è dell’altro. Quest’altro forse doveva essere regolato con più attenzione.
Ha fatto emergere la necessità di avere un framework preesistente alla messa sul mercato di un prodotto potenzialmente distruttivo. Pensa che si possa trovare un equilibrio efficace tra l’innovazione tecnologica che è tipica di Paesi come gli Stati Uniti, che agiscono prima di regolamentare, e la tutela di diritti fondamentali e di altre libertà all’interno dell’Unione europea, che invece regolamenta, tendenzialmente, prima di sviluppare?
Ci sono due livelli: il primo è quello europeo. Lo stesso rapporto Draghi fa emergere l’ipertrofia regolamentare, l’ansia di regolamentazione, europea, che cerca di intercettare il futuro. Ma regolamentare il futuro è problematico, è una scommessa. Quindi il livello europeo, in qualche modo, deve essere portato a regime. Non è così semplice, però, perché il Parlamento europeo ha un compito, quello di adottare normativa. Quindi io dubito che sarà del tutto passivo dopo essere stato super attivista nel mandato precedente. Vedremo se le nuove proposte andranno in cortocircuito con quelle già esistenti, che tra l’altro vanno già in cortocircuito con se stesse.
Poi c’è il secondo livello, che è quello extra-europeo. C’è una dicotomia tra l’esercizio regolamentare europeo e quello più pragmatico degli Stati Uniti e, in ambito “extra rule of law” – diciamo così – cinese. Quello statunitense, in particolare, non è un modello regolamentare, ma di intervento ex post, soprattutto di carattere antitrust. Ma oggi c’è una normativa della California – perché non possiamo parlare di Washington effect, ma di California effect – che prevede qualcosa di molto europeo: cioè una regolamentazione ex ante dei deepfake, che impone alle grandi piattaforme di rimuovere entro un determinato periodo ciò che è potenzialmente un contenuto disinformativo. Questo tipo di regolamentazione due anni fa, ma anche l’anno scorso, sarebbe stata blasfemia, mentre oggi è realtà. Quindi, per riassumere, da una parte abbiamo un modello europeo che deve in qualche modo entrare a regime, dall’altra parte abbiamo un modello globale che tende a seguire il Brussels effect perché vuole tutelarsi, soprattutto negli Stati Uniti.
E l’implementazione dell’AI Act europeo procederà per step. Potrebbe farci una panoramica sui prossimi passaggi, sempre che non ci siano modifiche e/o cortocircuiti?
Sì, i divieti entreranno in vigore entro sei mesi dalla pubblicazione ufficiale, poi ci sarà un periodo più ampio per le questioni legate ai sistemi ad alto rischio e, infine, ci sarà la messa a regime del resto. Io capisco l’approccio incrementale – è stato fatto così anche per il GDPR, per il quale c’è stato un periodo di grazia di due anni -, ma, proprio sulla scia del GDPR, quello che mi spaventa è la frammentazione normativa.
Questi nuovi regolamenti digitali, o del digitale, sono direttive mascherate. Sono delle clausole aperte che poi devono essere recepite dagli Stati membri. Per l’AI Act a maggior ragione perché c’è stato un grande compromesso tra Consiglio e Parlamento su temi chiave. E qual è l’unico modo per adottare il provvedimento? Delle normative a fisarmonica, a maglie larghe, e chiaramente nascono due problemi: il primo è che ogni Stato dovrà adottare una propria normativa – l’Italia, se ci pensa, ha già adottato un disegno di legge, addirittura muovendosi in anticipo rispetto al recepimento – quindi ci saranno almeno 27 normative statali, così come ci sono 27 normative statali sul GDPR; il secondo, invece, è legato all’interpretazione giurisprudenziale. Nozioni così ampie, come il rischio sistemico, il danno e tutte le altre questioni che devono essere poi calate in concreto, dovranno essere interpretate dal giudice nazionale ed europeo.
E qual è il rischio? Che a frammentazione si aggiunga frammentazione, e che si aggiunga la lesione del principio di certezza del diritto. E ad essere danneggiati sarebbero due elementi cruciali: da una parte il mercato, perché chi vuole investire in un mercato che non ha certezza? Ma dall’altra parte anche la democrazia, perché una democrazia va di pari passo col mercato, con un mercato sano, ma soprattutto ha bisogno di certezza del diritto.
E, proprio parlando di democrazia. Questo è un periodo ricco di appuntamenti elettorali, soprattutto negli Stati Uniti, con le elezioni presidenziali e del Congresso (l’intervista è stata realizzata prima delle elezioni statunitensi, ndr). Quanto è concreta la minaccia dei deepfake per la democrazia? Per esempio, alcuni candidati li stanno già utilizzando per plasmare la disinformazione a proprio favore. Quali contromisure legali possiamo adottare in questo senso?
Con riferimento alla prima domanda, io non esaspererei, ma neanche ridimensionerei. Nel senso che è chiaro che si deve sempre pensare all’utente medio del web, a qualcuno che è molto più influenzabile dei soggetti con cui in genere noi ci rapportiamo. Una piccola parte degli utenti farà un double-check, un riscontro per capire se il contenuto è verificabile. Tanti altri, invece, non cambieranno la propria opinione, ma la consolideranno, senza confrontarla con idee differenti. Avremo una radicalizzazione delle opinioni e questo a me spaventa molto.
Per quanto riguarda, invece, la seconda domanda sulle reazioni e le contromisure, lì ci sarà un effetto mosaico, una geometria variabile, negli Stati Uniti. Perché, come dicevo, non c’è un Washington effect su questo. Sia la legge federale sulla privacy che quella sull’AI sono bloccate al Congresso per veti incrociati, quindi ci saranno 50 stati a geometria variabile. La California, per esempio, per ragioni legate a chi ospita le server farm delle big tech, vuole dimostrarsi regolatoria, affidabile anche agli occhi degli europei. Adesso, questo è seguito con effetto domino da altri stati, ma si creerà una geometria, per forza di cose, variabile, come per la protezione dati. Attraversando il ponte da Manhattan al New Jersey, il data subject, chi detiene i dati, ha un trattamento totalmente diverso dal punto di vista legislativo, cosa per noi assurda in Europa. Questa frammentazione si ripeterà anche per l’AI.
Crede che delle misure come l’apposizione di watermark o la disclosure della natura artificiale dei contenuti siano strade percorribili o difficilmente applicabili?
No, non sono difficilmente applicabili, la filigrana viene già applicata. Il problema è che è soltanto una prima reazione. Non possiamo aspettarci che il diritto riesca a riorientare un fenomeno ultra-giuridico; è tecnologico, ma è anche sociale e culturale. È inutile ripetercelo, però va detto: qui ci vuole anche un’educazione civica digitale, che si sta facendo sempre più in Italia. Quello che Luciano Violante chiama giustamente “pedagogia” del digitale, che è molto importante, perché è proprio questo che, innanzitutto, crea gli anticorpi rispetto a una serie di possibili torsioni della realtà. È chiaro che poi ci si può lavorare e si può creare anche una normativa vincolante.
Lei pensi che in Europa, nel 2018, si diceva “non c’è una base giuridica nel trattato per adottare una normativa contro la disinformazione”, neanche di carattere di co-regolamentazione. Soltanto self-regulation nel 2018, mentre nel 2024, sei anni dopo, prima delle elezioni del Parlamento europeo, è stato adottato il primo regolamento sulla trasparenza della comunicazione politica in stagione elettorale di carattere di hard law. Cioè, si è trovata una base giuridica. È stato cambiato l’approccio da parte del legislatore, però questo fino a un certo punto, poi c’è l’aspetto della pedagogia, che più è diffuso meglio è.
Passiamo ora alle professioni legali. Come stanno cambiando con l’avvento di strumenti come l’AI generativa? Quali sono le opportunità per i professionisti del diritto?
Oggi parlavo con un collega scandinavo e mi diceva che in Norvegia il 70% degli studi legali utilizza delle applicazioni ad hoc per migliorare i processi, sia quelli di carattere amministrativo, sia di supporto legale dell’AI. In Italia, non conosco la statistica, ma credo che siamo molto indietro.
Sono sicuramente degli strumenti utilissimi. Bisogna conoscerli, bisogna studiarli. Bisogna non aver paura, e lo dico innanzitutto a me stesso, perché sono di una generazione legata al mondo degli atomi. Per cui bisogna mettersi in discussione anche dal punto di vista professionale e provare, provare, non farsi spiegare, ma provare quali applicazioni possono essere più o meno utili. È time-consuming e rischia di portare fuori dalla propria comfort zone rispetto al ragionamento giuridico tradizionale, che non deve però essere messo da parte.
Sulla base di tutte le linee guida – non soltanto per le professioni, ma anche per la giustizia – quello che emerge come fondamentale è il ruolo di supporto, di ancillarità, dell’AI, e non di sostituzione. Quindi io non avrei nessun tipo di timore legato a una sostituzione in questo momento, anzi, ci sono nuove opportunità per gli studi legali e per gli avvocati, però a patto che si investa del tempo.
E poi c’è anche l’altra condizione fondamentale: il denaro. In questo momento, quanti studi in Italia prevedono nel loro budget annuale la prova di queste applicazioni? Questa è la vera domanda. Credo che siano veramente in pochi.
Lei personalmente utilizza questi strumenti?
Io ho imparato a utilizzarli, ma in una maniera molto prudente. A me interessa molto spesso capire dove è la fallacia, cioè capire dove sta l’allucinazione. Chiedo anche agli studenti di farlo. In questo momento, dire agli studenti di non utilizzare l’AI è come dire “non andate al mare d’estate”, no? È assolutamente impossibile. Quindi, per esempio, potrei chiedere: “Trovatemi se c’è e dov’è in questo testo l’errore, l’allucinazione”. Allora a quel punto, sa, è un processo inverso che in qualche modo alimenta il senso critico.
Qual è invece il rischio? Il rischio è proprio l’opposto: non farla utilizzare, o meglio pensare a un divieto, che è irreale. Poi, invece, non solo la utilizzano, ma si fidano della prima risposta, e questo da un punto di vista più ampio diventa problematico, perché la prima risposta può essere molto convincente e persuasiva, ma non del tutto veritiera. Di fatto, ciò azzera o attenua proprio quel senso critico, di curiosità, che invece era alle origini del carattere esplosivo del web. Alla fine degli anni ’90, l’idea era quella di creare un libero mercato delle idee, con un’ulteriore apertura e confronto. Se una prima risposta, soltanto parzialmente vera, rischia di essere sufficiente, c’è un crampo mentale che è l’opposto della curiosità.
Mi viene in mente, come possibile rischio, anche il caso dell’avvocato americano che ha citato diversi precedenti fasulli nei suoi casi. Quindi i rischi sono molto concreti.
E poi c’è un caso di un giudice olandese che ha utilizzato l’intelligenza artificiale generativa per fare un fact checking rispetto a una questione processuale. E si rende conto che lì è delicato, perché fare un fact checking con uno strumento che necessiterebbe a sua volta di un fact checking diventa un cortocircuito. Quindi, bisogna stare un po’ attenti all’utilizzo.
E immagino che nei sistemi di common law, con tanti precedenti, trattandosi di un sistema probabilistico, possa funzionare meglio.
Esatto, è proprio così. Funziona meglio, però secondo me le cautele devono essere le stesse, perché è chiaro che, basandosi sul precedente e comunque su una questione probabilistica, se ci pensa si tratta dello stesso meccanismo tipico dell’intelligenza artificiale di carattere generativo.
Da noi in Europa c’è una fondamentale condizione preliminare che è quella del controllo umano, perché il nostro ordinamento europeo si basa sul principio personalistico e sulla dignità. Gli Stati Uniti si basano su un principio molto simile, chiaramente proprio della democrazia liberale, che è però quello della libertà. Libertà vuol dire di fatto meno vincoli. Meno limiti e meno human oversight, meno supervisione umana. E ci sono dei casi che confermano questo diverso orientamento dei giudici.
C’è un differente livello di fiducia nella tecnologia, secondo me, da parte dei giudici e degli operatori del diritto americani ed europei, soprattutto giudici. Il “digital trust” statunitense versus il “digital distrust” europeo. Cioè, un sospetto è sano quanto rimane un sospetto ed è unito alla curiosità. Se, invece, il sospetto diventa una chiusura retrograda e conservatrice, allora è un problema serio.
E guardando al futuro, quali sono secondo lei le prossime frontiere della regolamentazione in ambito AI che richiederanno particolare attenzione? Secondo lei, per esempio, dobbiamo rivedere il concetto di responsabilità civile data l’autonomia di questi sistemi?
Questo è un domandone. Quello della responsabilità e dell’imputabilità è un tema delicatissimo. C’era sul tavolo una proposta di responsabilità per prodotti legati all’intelligenza artificiale, era quasi pronta. Era un percorso parallelo all’AI Act, ma non può essere parallelo, perché i vari parametri di tutela, di responsabilità, dovranno allinearsi con i criteri di rischio dell’AI Act. Quindi è tutto da ricostruire quel tipo di responsabilità.
Però abbiamo delle certezze, per esempio per quanto riguarda la proprietà intellettuale. Tutte le volte in cui non c’è un contributo umano, una creazione non può essere considerata protetta dal diritto d’autore. Questo è uguale nel District of Columbia negli Stati Uniti e in Europa. Questo ci accomuna: il contributo umano è cruciale per la proprietà intellettuale, non dal punto di vista della responsabilità, ma dell’imputabilità del lavoro.
Per la responsabilità bisogna costruire partendo sempre dalle categorie classiche. Per chiudere con un’immagine che mi piace spesso ricordare anche agli studenti, all’inizio dell’era digitale, nel ’96, a Chicago, un giudice faceva un bell’intervento provocatorio: parlava di diritto degli animali versus diritto dei cavalli e diceva: “Io mi sono sempre occupato di questi temi. Adesso che ho nuovi casi sul web e non nel mondo degli atomi, devo stravolgere le mie categorie (diritto dei cavalli) o posso applicare la teoria unitaria (diritto degli animali)?”.
Purtroppo, se io rispondessi “diritto degli animali” adesso, sarei soltanto parzialmente coerente, perché purtroppo, o per fortuna, la sfida dell’intelligenza artificiale è molto più discontinua e più disruptive rispetto a quello che era internet. Quindi adesso avrei dei dubbi. Perché se sicuramente per il mondo del web in generale bisogna applicare le categorie tradizionali, sull’AI, francamente, dobbiamo andare con una navigazione a vista.