Trends

News - Trend trimestrale

Volume trimestrale

... ..%

Volume semestrale

... ..%

“Serve una strategia nazionale per l’AI”, intervista a Davide Bacciu | AI Talks #9

13 minuti

Paolo Marinoni 3 Gennaio 2024
13 minuti

La nona puntata di AI Talks, il format di interviste di AI news alla scoperta dell’intelligenza artificiale, è con Davide Bacciu, professore di machine learning e vice-presidente dell’AIxIA, l’Associazione italiana per l’intelligenza artificiale.

Laureato in Computer Science all’Università di Pisa e con un dottorato ottenuto presso l’IMT di Lucca, Davide Bacciu è professore di machine learning presso la sua alma mater e director of AI research di Aptus.AI. Bacciu è anche vice-presidente dell’Associazione italiana per l’intelligenza artificiale (AIxIA) e coordinatore dell’EMERGE Project, iniziativa europea che mira a studiare la consapevolezza collettiva delle macchine.

Iniziamo con una domanda preliminare: cos’è l’intelligenza artificiale?

È una domanda a cui abbiamo dato una risposta un po’ evasiva. Abbiamo definito l’intelligenza artificiale per confronto con l’umano, perché la cosa più difficile è definire cosa sia l’intelligenza. Possiamo descrivere l’intelligenza artificiale come quell’ambito dell’informatica che sviluppa modelli i cui comportamenti sono, da un punto di vista decisionale e con riferimento ai compiti che sono in grado di risolvere, indistinguibili dalle funzioni svolte da un umano. Questa è una definizione molto vicina a quella di Turing e riconosciuta da tutta la comunità scientifica.

Io personalmente ho una visione compatibile, ma molto più funzionale dell’intelligenza artificiale. Per me, l’AI è quell’area dell’informatica che avvicina la macchina all’umano e che cerca di lavorare sulla barriera che esiste tra il mondo biologico fisico e quello cibernetico, rendendo possibile per l’essere umano interagire con la macchina in maniera naturale e rendendo più semplice per la macchina capire il mondo fisico e l’essere umano. L’intelligenza artificiale è il futuro dell’interazione tra il mondo fisico dell’uomo e il mondo cibernetico della macchina.

AIxIA, di cui sei vice-presidente, si occupa di promuovere lo studio dell’AI nel nostro Paese e mappa l’ecosistema italiano nonché le attività di ricerca. Come si posiziona l’Italia – in Europa e a livello globale – nella ricerca focalizzata sulle ultime tecnologie?

Per dirlo in una frase, siamo piccoli e arrabbiati. Diciamo che, per la scala a cui operiamo, che è diversa da quella di tante altre Nazioni – parliamo di realtà enormi come gli Stati Uniti e la Cina – ci difendiamo. Ci difendiamo perché storicamente siamo stati molto lungimiranti sull’intelligenza artificiale, portandola avanti anche quando si trattava di una branca dell’informatica non vista come quella più rilevante o promettente. E questo ci ha messo in una condizione di vantaggio nel momento in cui, intorno ai primi del 2010, è ripartito tutto l’interesse, l’hype, nei confronti dell’intelligenza artificiale.

Avevamo già dei gruppi di ricerca che hanno continuato le loro attività di ricerca fondamentale e, quindi, soprattutto sulle tematiche di frontiera, ci difendiamo perché le abbiamo sviluppate nel tempo, abbiamo sviluppato le competenze e le risorse umane per portarle avanti.

Ci potresti fare degli esempi?

Abbiamo dato contributi fondamentali in diverse aree dell’intelligenza artificiale, ma mi piace ricordarne alcune. Una che riguarda primariamente l’intelligenza artificiale basata sul ragionamento, sulla rappresentazione della conoscenza e sui metodi formali dell’intelligenza artificiale. Su questo, l’Italia è sempre stata molto forte, con gruppi di ricerca veramente molto attivi, distribuiti su tutta la penisola. E poi siamo stati per tanti anni una ridotta delle reti neurali, anche se, persino nel mondo dell’intelligenza artificiale, le reti neurali non venivano viste come la soluzione di AI che avrebbe portato alla svolta. E invece la storia ci ha dimostrato il contrario e in Italia avevamo già dei gruppi molto forti.

Una delle prime persone ad aver modellizzato in maniera formale il comportamento dei neuroni umani è un fisico italiano, Caianiello, che poi ha dato il via a tutta una generazione di fisici che si sono applicati nelle reti neurali, biologiche e artificiali, tra cui mi piace ricordare anche la mia supervisor, Antonina Starita, la quale ha fondato un gruppo di ricerca qui a Pisa, che poi ha creato tante delle persone che sono andate a fare reti neurali in giro per l’Italia.

E giusto per menzionare un altro ambito estremamente rilevante per l’intelligenza artificiale moderna, possiamo parlare delle reti neurali per grafi, che hanno avuto un impatto molto forte negli ultimi cinque anni – ci sono tantissimi ricercatori in giro per il mondo che ci lavorano – e sono state inventate in Italia a cavallo tra gli anni ‘90 e i primi del 2000, quindi direi che ce la possiamo cavare. Le competenze ci sono e sono ben radicate.

In termini di percezione, a che punto siamo? Nella tua esperienza, gli italiani apprezzano l’intelligenza artificiale? Ma ancor prima, sanno di cosa si tratta?

Questa è una bella domanda. Io credo che ci sia un problema più generale di educazione tecnologica che è carente in questo Paese. Non credo che non siamo in grado di educare le persone alla tecnologia, ma penso che l’educazione alla tecnologia non sia ancora sufficientemente pervasiva nella formazione dei giovani, ma anche dei non più giovani, che sono dei forti utilizzatori della tecnologia. E questo chiaramente ha un impatto anche sull’intelligenza artificiale.

La mia visione è quella di una società che è interessata all’AI, inizia a capirne i vantaggi, inizia forse a percepirne anche alcuni rischi, ma non ha una comprensione di che cosa sia in concreto, di cosa ci sia sotto. Ma d’altra parte è molto difficile far guadagnare una comprensione di cosa sia l’intelligenza artificiale se non ci sono abbastanza fondamenti di informatica.

A livello istituzionale, invece, credi che la regolamentazione europea confluita nell’AI Act sia sufficiente a governare le applicazioni dell’intelligenza artificiale, soprattutto con riferimento a quelle che prevedono una ‘concretizzazione’ robotizzata delle sue potenzialità?

Io non sono un esperto di aspetti legali dell’intelligenza artificiale, quindi il mio è il parere di uno scienziato. La mia sensazione è che non sia l’intelligenza artificiale stessa a porre un problema, quanto l’uso dell’intelligenza artificiale per automatizzare un processo. E il problema vero non è nell’uso dell’AI, ma nell’estrarre dal loop decisionale l’essere umano, nel cedere il controllo a una macchina. E questo chiaramente ci pone in una condizione di allerta e di rischio.

Dall’altra parte, poi, ci sono gli aspetti legati alle modalità di sviluppo di questi sistemi, soprattutto di quelli basati sui dati. L’AI estrae in maniera estremamente efficace conoscenza dai dati, ma i dati contengono anche informazioni personali e questo, unito alla cessione del controllo alla macchina senza sapere esattamente di chi sia la responsabilità delle decisioni prese, crea un problema. In questo senso, l’AI Act mi pare un compromesso ragionevole, perché sposta l’attenzione sull’impatto dell’applicazione che utilizza l’AI. Non cerca di demonizzarla.

E, detto questo, pone anche l’accento sulla responsabilità di chi sviluppa un certo tipo di modelli molto potenti, pre-addestrati e messi a disposizione del mondo. La ricerca deve essere libera, ma dare la possibilità di sviluppare idee e modelli è un conto, mentre mettere sul mercato una tecnologia non testata e non validata – come è stato fatto, ahimè, con i modelli linguistici da qualche azienda per interessi – è un’altra cosa. Secondo me, l’AI Act va nella direzione di controllare questo aspetto. Quanto poi avrà un effetto dal momento che ha un impatto limitato all’area europea non sono in grado di valutarlo onestamente.

C’è chi dice che noi regoliamo in Europa ciò che ancora non abbiamo. Questa visione pensi che sia effettivamente rispondente al reale?

Secondo me le leggi devono regolare ciò che non c’è ancora. Non bisogna aspettare di aver fatto il danno per regolare le cose. E poi non sono d’accordo, perché se ci stiamo riferendo al fatto che stiamo regolando i modelli linguistici che non abbiamo costruito in Europa, bisogna ricordare che noi stiamo cercando di regolare qualsiasi modello linguistico usato in Europa. Se qualcuno vuole rilasciare in Europa un certo tipo di tecnologia deve avere un certo tipo di marchio. Non mi pare un’idea così peregrina.

Invece pensi che dobbiamo fare di più a livello nazionale?

Sulla regolamentazione io penso che, come anticipato, la strada sia tracciata dall’Unione europea e credo che l’Italia la recepirà, come ha quasi sempre fatto quando si tratta di regolamentazioni europee. Dovremo certamente fare di più a livello nazionale sulla strategia.

Se parliamo da un punto di vista di visione strategica e politica, fare meno è difficile. Abbiamo fatto tante strategie – anche adesso siamo in corso di sviluppo di una nuova strategia nazionale per l’AI – ma nessuna implementazione di queste strategie. Continuiamo a fare un bellissimo esercizio di ragionamento su ciò che si potrebbe fare per valorizzare l’attività di ricerca, le attività di sviluppo industriale che ci sono nel nostro Paese, ma poi, nella pratica, le iniziative coordinate, la visione di lungo termine ancora, secondo me, mancano.

Quindi quello su cui dovremmo realmente agire è una pressione maggiore sul pensare all’intelligenza artificiale in prospettiva, ma non in una prospettiva di un paio di anni.

Dobbiamo pensare ai prossimi dieci anni, perché si tratta di una tecnologia trasformativa che impatterà a ogni livello.

A livello sociale, a livello economico, a livello del lavoro. E se non c’è una visione di lungo termine, saremo costretti a inseguire il cambiamento, che difficilmente porta a dei vantaggi.

Quindi, nonostante le competenze ci siano, serve maggiore strategia. In concreto, ti riferisci agli investimenti in questo ambito?

Penso ci sia un aspetto che riguarda certamente gli investimenti perché tutte le tecnologie sono costose da realizzare, sia a livello di ricerca che a livello di prodotto. E quindi supporto a tutta la filiera, dalla ricerca fondamentale al trasferimento tecnologico, alla trasformazione in prodotto. Ma credo sia molto importante anche proprio la visione strategica pervasiva dell’intelligenza artificiale.

Non si può ridurre tutto semplicemente a rilasciare soldi in un flusso di fondi che gira nel Paese. Bisogna creare infrastrutture, bisogna studiare e anticipare gli impatti a ogni livello. Io ho un dubbio sul fatto che ci sia una reale percezione nei vari ministeri di quello che sarà l’impatto, per esempio, dell’intelligenza artificiale sui posti di lavoro nei prossimi cinque anni. E di conseguenza di come fare a trasformare le professionalità. Quindi, non si tratta solo di finanziamenti, ma si tratta anche proprio di un’attitudine e di incamerare questi concetti a tutti i livelli della società.

Parlando di ricerca, con riferimento all’utilizzo di dispositivi intelligenti, vorrei chiederti del progetto europeo EMERGE, di cui sei coordinatore. Il progetto tratta di una consapevolezza robotica collettiva, che si scorge quando l’intelligenza è distribuita tra molte parti che lavorano insieme verso un obiettivo comune. Potresti parlarcene?

Questo è un tema articolato. Prima di tutto, è importante capire che cosa sia la consapevolezza. E già questo è complesso. Volendo fare un esercizio ragionevolmente condiviso dalla comunità – perché poi si scatenano le guerre di religione anche su queste definizioni – la consapevolezza in qualche modo è quel processo di integrazione delle informazioni che porta a una rappresentazione interna.

Io sono consapevole di avere un braccio anche senza vederlo, perché so integrare le sensazioni del mio corpo che mi dicono che il braccio è lì ed è in quella determinata posizione. E riesco a sentirlo come rappresentazione del mio cervello. E questa è consapevolezza. Può essere la consapevolezza di uno stato interiore, può essere la consapevolezza di qualcosa che riguarda il mondo intorno a me, può essere la consapevolezza di qualcosa che riguarda altre persone. Quindi io sono consapevole dello stato emotivo delle altre persone, sono in grado di formarmi una mia rappresentazione interna di come sta un’altra persona, ma sulla base di cosa? Delle informazioni che integro, che sono informazioni visive, il parlato, tutte le informazioni a cui abbiamo accesso come esseri umani o in generale come animali.

Ecco, e la consapevolezza è questo, e la domanda è: perché è interessante la consapevolezza nei sistemi non biologici? La mia risposta, personalmente, è che la consapevolezza è fondamentale per comunicare. Se io non so rappresentare ciò che sento, non posso comunicarlo a qualcun altro. Questa è un’abilità importantissima anche negli agenti sintetici. Un agente intelligente in grado di rappresentare ciò che sente e di comunicarlo a un essere umano è chiaramente un agente intelligente meno rischioso. Perché? Perché è in grado di comunicare il proprio stato con un altro essere umano.

Se vogliamo parlare di più agenti intelligenti, e quindi della consapevolezza collettiva, perché ci interessa avere una consapevolezza tra agenti sintetici? Perché spesso uno dei massimi problemi dell’informatica è come far comunicare dispositivi che sono stati sviluppati da produttori e aziende diversi, ma se hanno consapevolezza possono scambiare le informazioni in maniera migliore. Quindi la consapevolezza facilita l’interoperabilità tra tecnologie.

Con il progetto andiamo a studiare proprio questo: come rendere gli agenti consapevoli, interoperabili. E in più ci aggiungiamo un altro pezzettino. Perché fino ad ora ho parlato di consapevolezza del singolo individuo, ma noi in realtà siamo in grado di avere una consapevolezza collettiva. Cioè, se ci mettiamo insieme come più individui biologici, siamo in grado di sviluppare una percezione, una consapevolezza condivisa di un fatto, di una sensazione. E lo facciamo senza annegarci dentro.

Facciamo un esempio classico di consapevolezza condivisa. Se devo spostare un tavolo e mi faccio aiutare da un’altra persona a spostarlo perché è troppo pesante, lo solleviamo insieme e siamo in grado di spostarlo da un punto A un punto B anche senza parlare. Perché? Perché abbiamo sviluppato una rappresentazione condivisa di questo oggetto che stiamo portando insieme e siamo in grado di operare lo spostamento fisico senza cascarci sopra, senza darcelo addosso, perché riusciamo a sincronizzarci per eseguire un compito comune. E nel fare questa cosa non sovrascriviamo la nostra percezione di “tavolo”. Ne sviluppiamo una ulteriore che serve proprio per eseguire l’operazione.

Ecco, fare questa cosa negli agenti sintetici è molto difficile. Esistono modelli computazionali di consapevolezza condivisa, ma quello che succede adesso in letteratura è che, quando c’è consapevolezza condivisa, gli agenti sintetici locali perdono la loro consapevolezza locale, mentre invece vogliamo introdurre nei sistemi collettivi questo doppio livello. Io sono cosciente delle mie cose e sono anche in grado di collaborare con gli altri per sviluppare una consapevolezza condivisa, senza per questo dissolvermi in un collettivo. È chiaro che sono argomenti un po’ filosofici, oltre che informatici.

E qual è la differenza tra questa consapevolezza collettiva (awareness) e quella che viene definita coscienza (consciousness)?

Belle domande. Se uno vuole infilarsi in guerre di religione, inizia a parlare di coscienza, perché non esiste una definizione condivisa di coscienza nella comunità filosofica degli scienziati cognitivi. Esiste un certo numero di definizioni di coscienza e quindi è un problema duro, “hard”. C’è una definizione del problem of consciousness che la rende quasi intoccabile, perché è molto difficile operare su una definizione non condivisa, molto sfuggente. Volendo fare un esercizio di stile, possiamo dire che la coscienza è un meta-stato di consapevolezza, cioè è la consapevolezza di essere consapevoli.

Dal mio punto di vista, però, è più interessante guardare alla consapevolezza che alla coscienza, almeno in questa fase, perché io non sono convinto che alle macchine serva coscienza. Non ci è utile sviluppare delle macchine coscienti. Io non sono convinto che serva e anzi potrebbe essere bene evitare, mentre invece è importante, per le ragioni che abbiamo detto prima – interoperabilità, capacità di operare in ambienti condivisi con umani e con altra gente -, avere consapevolezza. Poi, appunto, separare le due è sempre molto raffinato.

Credi che le macchine potranno mai raggiungere uno stato di coscienza?

Si tratta di un esercizio di lettura della palla di cristallo che non riesco onestamente a fare. La sensazione personale è che con il substrato di calcolo delle macchine attuali non sia possibile. Non c’è banalmente la potenza di calcolo necessaria per ottenere quell’effetto integrativo moltiplicativo che serve all’emergenza di una cosa indefinibile come la coscienza.

Probabilmente con un cambiamento del substrato di calcolo in direzione di cose più futuristiche, come la quantum artificial intelligence o i calcolatori neuromorfici, chi lo sa? È difficile capire dove è localizzata la nostra coscienza nel cervello, però da qualche parte c’è ed è il risultato della capacità di calcolo del nostro cervello. Ci vuole qualcosa che abbia perlomeno la capacità di calcolo del nostro cervello e siamo piuttosto lontani.


In Evidenza


Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Chi fermerà l’AI? Riflessione sull’appello di Musk

Elon Musk e altri mille esperti chiedono una pausa di…

Elon Musk e altri mille esperti: “Allarme intelligenza artificiale”

Elon Musk e altri mille esperti hanno chiesto di sospendere…

Microsoft 365 Copilot, un’AI generativa per la produttività

Microsoft ha lanciato 365 Copilot, un servizio di intelligenza artificiale…

OpenAI rilascia GPT-4, più potente e multimodale

GPT-4 è arrivato. Un modello multimodale e con 100 trilioni…