Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei in un altro modo. Questo ci porterebbe a sprecare meno risorse e a fare meglio".

18 min.

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

L’intelligenza artificiale è tutt’altro che intelligente, per cui pensare che possa esserci un AI takeover, che le macchine possano prendere il sopravvento e che ci possano sostituire, è pura fantascienza. Lo pensa e lo sostiene da tempo Luciano Floridi, ospite del nuovo appuntamento di AI Talks, il nostro format di interviste alla scoperta dell’intelligenza artificiale.

Il professor Luciano Floridi, filosofo dell’informazione tra i più influenti al mondo, già professore di filosofia ed etica dell’informazione a Oxford, oggi insegna a Bologna e ha una cattedra all’Università di Yale, dove dirige anche il Digital Ethics Center. Da quest’anno è anche presidente della Fondazione Leonardo. Lo abbiamo intervistato per parlare a tutto tondo di innovazione, regolamentazione, rischio bolla, istruzione e molto altro.

Iniziamo con una domanda che poniamo a tutti i nostri ospiti: cos’è l’intelligenza artificiale?

Diciamo che non lo sa nessuno. Iniziamo da questo. Poi, come seconda approssimazione, è un arcipelago di tecnologie, scienze, prassi e progetti industriali e commerciali. Un po’ come le Maldive: tante isole, ma un’unica identità. Per me questa identità è legata alla capacità di agire, non alla capacità di intelligere. Quindi leggo l’AI come agency without intelligence piuttosto che artificial intelligence.

Invece di chiedersi quale forma di intelligenza possa essere espressa da queste macchine – una domanda estremamente scivolosa e vaga – è più facile, meno dispendioso e più realistico chiedersi quali forme di capacità di agire siamo stati in grado di implementare dal punto di vista ingegneristico. L’intelligenza artificiale è una nuova forma dell’agire che si accomuna a quelle degli agenti atmosferici, degli agenti biologici, alle forme di agire umano, sociale o individuale, e alle forme di agire artificiale.

E pensa che questa differenza tra agency e intelligenza, che lei definisce “divorzio”, sia chiara ai leader delle big tech o crede che facciano un po’ gli ‘gnorri’ per spingere i propri prodotti?

Credo ci siano molte ragioni per cui questa distinzione è poco ortodossa. È quella che ho proposto, ma non è la vulgata, non è quella ordinariamente sostenuta dalle grandi aziende. In parte perché c’è un’enorme tradizione storica – più di 70 anni da Turing e dal workshop di Dartmouth. È difficile mandare tutto questo in una direzione diversa se non ci sono trasformazioni profonde.

C’è molta confusione terminologica e chi ci gioca a proprio favore. Trovo anche colleghi che si arrampicano sugli specchi in speculazioni straordinarie su “quanto è intelligente, che intelligenza”. A mio avviso, ci sono forti interessi commerciali affinché questa chiarificazione non sia così ovvia.

A valle, c’è un’allocazione della responsabilità. Se togliamo qualsiasi concezione di intelligenza a queste macchine, dobbiamo responsabilizzare al 100% chi le produce, chi le mette sul mercato e chi le usa, il che può essere spiacevole. Non escluderei una voluta deresponsabilizzazione da parte di chi produce questa tecnologia, dicendoci che sono macchine straordinariamente intelligenti, ma per le quali non hanno alcuna responsabilità. È un po’ troppo facile.

Su questa speculazione, si fonda anche quella finanziaria. Si è tornati a parlare di bolla dell’AI. Con i risultati finanziari di NVIDIA, il rischio sembra essersi un po’ allontanato. C’è chi dice che la bolla non scoppierà, ma si sgonfierà, e chi invece ritiene che non esista proprio. Lei come legge questa situazione?

Mi sembra strano che qualcuno possa negarla. La bolla nasce dal divario fattuale tra gli enormi investimenti legati alla produzione di AI e l’acquisizione dei prodotti. Il venture capital continua a crescere mentre l’investimento industriale cresce molto più lentamente. Questo gap lo chiamiamo bolla: uno spazio che sta crescendo senza un chiaro ritorno sull’investimento. Il ROI non è affatto chiaro. A un certo punto qualcuno vorrà vedere che cosa è stato fatto con tutti quei miliardi, ma nessuno sa quando avverrà.

La bolla si sgonfierà se gli investimenti del venture capital diminuiscono gradualmente mentre quelli industriali salgono. Il mondo comincia a comprare AI, produce un po’ di meno, investe meno nella creazione e molto di più nell’acquisizione. La bolla si sgonfia gentilmente e tutto rientra nella normalità.

Il timore è che questa bolla continui a crescere e che questa rivoluzione industriale così profonda richieda non mesi ma anni, o addirittura decenni. Se guardiamo alla stampa e all’elettricità, hanno richiesto decenni per essere assorbite. Se il mondo del business richiederà anche solo 5-10 anni mentre l’investimento di venture capital vuole un ritorno in mesi, la bolla scoppia. Al momento i rischi sono enormi.

Al piccolo investitore consiglierei di fare attenzione a non bruciarsi con il fiammifero in mano. È come passarsi il fiammifero di mano in mano: sappiamo tutti che tra un po’ ci brucerà le dita, ma acquistiamo e vendiamo nella speranza di non essere noi a pagare per lo scoppio della bolla. Comprare NVIDIA oggi si può fare, l’importante è vendere tra qualche mese. Un po’ di cautela farebbe bene a tutti. Dobbiamo sostenere molto di più gli investimenti in acquisto.

Quali differenze vede tra questa bolla e quella delle dot.com?

Ha più somiglianze che differenze. Se dovesse scoppiare, probabilmente seguirà lo stesso andamento: distruggerà moltissimo, brucerà miliardi, molte aziende spariranno ma emergeranno alcuni colossi, come successo con il dot.com.

Abbiamo però elementi diversificanti. Per prima cosa, conosciamo già quello che è successo, un po’ di storia aiuta. Digitalmente parlando, siamo un po’ meno ingenui.

C’è però una grande differenza negativa. Il dot.com ha creato investimenti infrastrutturali con durata temporale molto più lunga. Fibre ottiche, satelliti, data center invecchiavano meno velocemente. Il nostro data center oggi, costruito per gestire l’AI, ha un bisogno di rinnovazione molto più veloce. Questi miliardi dovranno avere un ritorno in tempi ridotti. Sono differenze culturalmente buone, ma tecnicamente più pericolose, dovute alla rapidità di invecchiamento dell’investimento in corso.

Lei ha parlato di un “momento berlinese” imminente. Ci può spiegare cosa intende?

Se guardiamo le diverse tecnologie che caratterizzano la rivoluzione digitale – telefonia mobile, internet, web, streaming, social media, search – tutte hanno avuto uno sviluppo simile: competizione e poi pacificazione.

C’è un momento di conflitto competitivo tra aziende, come tra Microsoft e Google per il search business. Grande dispendio di capitali, enorme sforzo economico. Poi una delle due parti capisce che sta perdendo e abbandona. Nel search ha vinto Google, Microsoft ha sostanzialmente lasciato perdere. Chi usa Bing oggi?

L’analogia con la Conferenza di Berlino è questa: tutte le potenze europee si misero d’accordo e smisero di competere per lo smembramento dell’Africa. A Berlino, decisero chi prendeva cosa, tracciando righe con matita e righello su un pezzo di carta senza consultare nessuno del continente. Quelle righe esistono tutt’oggi. Questa spartizione mi ricorda moltissimo quella del digitale.

L’AI oggi la vediamo come grande competizione, ma già oggi chi considera Apple e Meta reali competitori? Di fatto, abbiamo tre grandi competitori: Gemini-Google, la linea di Anthropic su Amazon e la cordata OpenAI-Microsoft. La spartizione avverrà sulla base dei dati che possono acquisire.

Se devo avere un’AI per il retail, è più facile per un’azienda che gestisce la compravendita online. Se mi occupo del settore medico e domino il cloud medico in Europa, avrò i dati per quello. È plausibile che lo smembramento del settore AI avverrà in termini di chi ha i dati per fare il prodotto competitivo. Si potrebbe ipotizzare Microsoft AI settore medico, Amazon AI settore retail. E smetteranno di competere.

Su questo c’è molto da riflettere, perché noi europei subiremo questa spartizione. C’è un’alternativa: l’open source. Potremmo essere più aggressivi promuovendo una strada europea che mette insieme la bontà normativa con l’open source. Non lo stiamo facendo. Ci sono pochi esempi in Italia e Svizzera, ma è un peccato.

Si sente spesso ripetere lo slogan “America innovates, China replicates, Europe regulates”. Pensa che in Europa possa esserci innovazione o la regolamentazione è un freno?

Penso che possano essere vere entrambe le cose. Dipende da quanto illuminati saranno i nostri dirigenti, aziendali e legislativi. Se pensiamo che il momento normativo sia solo una reazione a chi produce tecnologia – “se vuoi fare business in Europa queste sono le regole del gioco” – sarà un freno. Meglio di niente, ma una grande opportunità mancata.

Ma se trasformassimo il momento normativo in valore aggiunto, un bollino europeo di sicurezza normativa, compliance sulla protezione dati, sul copyright, se tutto questo non venisse visto come reazione, ma come promozione del made in Europe, sarebbe tutt’altro.

Una dimensione open-source all’europea per il quarto polo. Non Cina, non America, ma tutto il resto del mondo. C’è tutto un universo lì che potrebbe decidere di scegliere l’open source europeo, garantito dalla legislazione europea, e non un closed system americano che ti costa un occhio della testa e non sai cosa facciano con i dati.

Quindi fare di un percepito ostacolo – la regolamentazione – un punto differenziante.

Esatto, e un valore aggiunto. Permette a chi acquista intelligenza artificiale di sapere che è fatta in un contesto che offre ulteriori garanzie, oltre a un prodotto a costi super competitivi perché open-source. Per essere molto semplici: siamo meglio dei cinesi perché ci mettiamo le regole, meglio degli americani perché glielo diamo open-source. Non è difficile.

Passiamo ora all’evento “Orbits – Dialogues with Intelligence”. Quest’anno si è svolto al Palazzo del Ghiaccio di Milano. Come è cambiato questo progetto e quali sono gli obiettivi?

Annunciamo subito che la terza edizione sarà a Napoli a luglio. Stiamo guardando le location e ci sono opportunità straordinarie.

Orbits è partito da un’esigenza di migliore e maggiore informazione su questi temi della rivoluzione digitale in senso ampio: AI, dati, cultura, politica, aziende, società. Una sorta di deficit concettuale che abbiamo sentito essere sempre più presente e che richiede una qualche risposta. C’è una grande domanda, ma non un’offerta all’altezza. Tanto è vero che siamo chiamati da aziende, scuole, università, comuni per parlare di questi temi.

Abbiamo organizzato tutto in maniera costruttiva e collegiale. Non si va a criticare quello che non c’è o dire quanto le cose vanno male, ma vogliamo fare comunicazione, informazione e formazione costruttive.

Il tentativo è mettere insieme più forze: contributi di aziende, pubblica amministrazione, startup, mondo della ricerca e sviluppo. L’obiettivo è che tutte queste entità spingano nella stessa direzione per fare bene al Paese. Lo slogan è fare meglio insieme: mettere insieme buone idee per cogliere meglio le opportunità.

L’anno scorso è stato un successo quasi inaspettato, straordinario. Quest’anno le aspettative sono state superate, quindi rilanciamo con Napoli per la terza edizione. C’è molta energia, molte persone, molte istituzioni che spingono nella direzione giusta. Vogliamo aiutare a spingere un po’ di più per smettere di parlare male dell’Italia e cogliere meglio le opportunità, che sono tantissime, soprattutto nel nostro Paese.

All’evento c’era anche il maestro Giovanni Allevi, che ha chiuso, raccontando la sua storia personale, il suo intervento introduttivo sul concetto di capitale semantico. Cos’è e come facciamo a coltivarlo in quest’epoca di cognitive offloading?

Innanzitutto, mettendolo in evidenza. Se c’è una cosa buona che l’AI ha fatto è stato separare la produzione di contenuti dal loro design in termini di architettura, scelta, opzioni, cura, controllo e uso. È come comparare testi scritti meravigliosamente bene da un sistema AI con la scelta di che cosa scrivere, perché scriverlo, come controllarne la qualità, cosa cambiare e cosa farne. Tutto quello che viene prima, durante e dopo è parte del nostro capitale semantico.

Oggi si può scrivere una poesia come Leopardi con l’AI benissimo. Ma perché hai scelto Leopardi? Potevi scegliere Ungaretti. L’AI non sceglie per te. Ti dice: “Se vuoi una poesia di Leopardi, eccola”. Ma perché la vuoi? A cosa ti serve? La puoi controllare? Quanto è buona? È quella di cui hai bisogno?

Immaginiamo in azienda: perché fare quel report? A cosa serve? Cosa ci facciamo? Lo sappiamo controllare? Che qualità vogliamo raggiungere? Tutto questo è il design dell’oggetto che resta sempre di più nelle nostre mani. Aprendo le opportunità, il momento della scelta diventa sempre più determinante. Se posso solo cucinare il pane, c’è poco da scegliere. Avresti potuto fare la pizza, una torta, qualsiasi cosa. È il cuoco che decide. Gran parte del lavoro è fatta dalla macchina. Benissimo, vedremo di cosa si occuperà il cuoco.

È come pensare che Armani abbia fatto tutti i vestiti che abbiamo acquistato. Chiaramente no. Era Armani perché aveva il disegno e le grandi intuizioni. Il vestito non è Armani perché l’ha cucito lui. Un film è “regia di”. La fotografia col telefonino l’ha fatta il dispositivo, ma è mia perché ho scelto la luce, il filtro, l’inquadratura, ho buttato 5 foto e ho scelto questa.

Bisogna ripensare alla produzione umana come qualcosa che può essere in parte automatizzato, ma nella misura in cui è automatizzato moltiplica l’importanza delle scelte che esercitiamo. L’AI ci sta facendo un favore mettendocelo in luce in maniera lampante. Fino all’altro ieri il testo era mio perché avevo messo le dita sulla tastiera. Oggi è mio perché ho deciso di rilasciarlo avendo ritenuto che, fatto in quel modo con l’AI, sia stato fatto bene. La responsabilità è tutta mia, anche se il 90% è stato prodotto da un LLM.


🎙️ L’intervista in formato podcast:


Tra l’altro lei ha sperimentato il “distant writing” con il libro “Encounters”, giusto?

Sì, sta per uscire. La Columbia University Press ha deciso di pubblicarlo. È un esperimento in cui presento la parte teorica di cosa significa scrittura a distanza attraverso LLM, e poi l’esperimento vero e proprio: storie scritte al 100%, anche la virgola, da vari LLM.

Sono piccole storie di circa 1500-2000 parole che legano personaggi minori nei classici della letteratura britannica, da Jane Austen a Virginia Woolf, con vincoli: un autore compare una volta sola, un testo una volta sola. Il personaggio minore della prima storia incontra quello della seconda. Uno incontra due, due incontra tre, tre incontra quattro, in una catena da Jane Austen a Virginia Woolf. C’è ad esempio il maggiordomo del dottor Jekyll che incontra la signora che affitta le stanze a Sherlock Holmes.

Sono tutti testi non più protetti da copyright. Virginia Woolf è l’ultima e cent’anni sono passati.

Un crossover di storie.

Sì, ed è impossibile da realizzare senza questi strumenti. Questo è l’esperimento: mostrare come si possono fare cose diverse e di più. Ho provato a farlo negli anni ’90, era un esperimento che avevo in mente da ragazzo. Le variabili esplodono, perché ci deve essere plausibilità sociale (il grande aristocratico non può incontrare una poverina al ballo nel 1800) e geografica (chi vive nello Yorkshire non può incontrare qualcuno a New York) e il linguaggio deve essere coerente con lo status sociale. Ogni capitolo, poi, è scritto nello stile dell’autore del primo personaggio che incontra il secondo. È qualcosa che possiamo fare oggi perché abbiamo questi strumenti, come andare sulla luna perché abbiamo i razzi. Prima non era possibile.

Quindi questo libro è “designed by” Luciano Floridi?

Sì, esatto.

Ha stimato quanti prompt ci sono voluti per completarlo?

Ho fatto un calcolo veloce: circa 40 ore di lavoro per storia, centinaia di prompt. Il momento artigianale non va sottovalutato. È uno sciocco chi pensa che questi strumenti viaggino da soli, è il contrario. Sono strumenti potentissimi che, per essere utilizzati al meglio, richiedono moltissimo tempo e capacità.

L’ho fatto anche per imparare. Quando ho provato la prima volta con GPT-3.5 non era possibile, non era all’altezza. Ho dovuto modulare molto, ogni storia l’ho dovuta scrivere una per una. Non dici “scrivimi un libro di 200 pagine fatto così”.

C’è una narrativa che va demistificata. L’idea che basta spingere il bottone… Per favore, veramente. Il realtà è il contrario. È come mettere qualcuno senza patente di guida per un’automobile ordinaria in un’auto di Formula 1. L’automobile è potentissima, ma bisogna saperla guidare.

Ci vuole competenza.

Dico sempre che l’AI fa bene a chi le cose le sa e fa malissimo a chi non le sa.

E in ambito scolastico c’è il rischio di usare i modelli in modo improprio. I ragazzi usano ChatGPT da anni per studiare e fare i compiti. A cosa devono stare attenti i ragazzi? Come deve cambiare la scuola?

Tutto il mondo della formazione è profondamente scosso da questa rivoluzione perché non può più basarsi sulla produzione di un deliverable, di un testo, perché quello lo fa bene una macchina, se guidata in maniera decente. Deve cambiare mettendo in luce la componente di controllo, di elemento critico, di originalità e di espressione dell’individuo.

A me non interessa una ricerca su Giulio Cesare. Mi interessa sapere cosa Maria ha capito, visto, intuito. Che poi Maria utilizzi o meno un LLM è indifferente, perché avrà fatto le sue domande, i suoi prompt, le sue correzioni. Avrà deciso che quella ricerca era meglio di un’altra fatta con un altro LLM. Avrà studiato, sarà andata a controllare in biblioteca se quella ricerca è attendibile. Avrà imparato chi è Giulio Cesare e perché è importante.

Quando presenta il suo elaborato, sarà il suo elaborato. Dobbiamo rimettere l’accento su “suo”, non su “elaborato”, perché per fare con l’AI un elaborato, una ricerchina di due pagine su Giulio Cesare, ci vuole un quarto d’ora. Se rimettessimo l’accento sulla provenienza e sul processo, non tanto sull’output, avremmo un mondo della formazione all’altezza.

Dovremmo essere grati all’AI che ci ha rimesso in chiaro cosa è importante. Veramente a me interessa che il ragazzo sappia recitare a memoria tutto l’aoristo o una declinazione? La scuola non ha mai voluto fare questo, se lo fa sbaglia. Ha sempre privilegiato il momento critico, intellettuale, di apprendimento dell’individuo. Ora l’AI ci permette di farlo vedere molto bene. Quando possiamo dire “questa cosa non vale niente perché l’avrebbe potuta produrre ChatGPT”, abbiamo chiarito qual è la componente umana fondamentale: è il tuo saggio, non quello di nessun altro, perché riconosco in te le nozioni, le idee, l’angolatura, la scelta del tema, lo stile. Questo è qualcosa di buono che l’AI sta facendo. Ci fa vedere meglio dov’è il valore aggiunto, il capitale semantico.

Però ci sono professori che usano AI detectors per rilevare se uno studente abbia usato un LLM per la produzione di un testo e questi sbagliano spesso. Cosa ne pensa?

Vietare l’uso dei modelli è una battaglia di retroguardia, che non fa del problema un’opportunità. È una battaglia antistorica. Il problema non è bloccare o vietare l’uso, ma capire come usare al meglio tutto questo. Cavalcare questa rivoluzione in maniera intelligente, non resistere, sopprimere, bloccare. Vietare vuol dire solo che i ragazzi diventeranno più furbi.

Noi a Yale diamo gratis questi strumenti agli studenti così che non ci sia differenziazione tra chi se li può permettere e chi no. Vietando, chi non può permetterseli prende il divieto alla lettera, chi invece può spende 200 euro per l’ultimo modello. Creeremmo ingiustizie.

Questi blocchi faranno solo danno, ritarderanno il momento in cui facciamo i conti con questa rivoluzione in modo costruttivo e positivo. Non è una buona idea.

Ultima domanda: qual è il cliché più cliché sull’intelligenza artificiale, il falso mito che, se avesse la bacchetta magica, cancellerebbe subito?

Quello di intelligenza. È tutto un elemento fantascientifico, un po’ voluto, un po’ mal digerito, un po’ incompreso, un po’ anche di passione di chi ha passato decenni a sviluppare questi strumenti e quindi non può non avere quel coinvolgimento che fa credere che si stia creando una qualche forma di intelligenza anche solo all’altezza di un topolino.

Se potessi tornare indietro, eliminerei proprio l’espressione “intelligenza artificiale”, la chiamerei in un altro modo. Ci porterebbe a sprecare meno risorse e a fare meglio. Meno paure e più concrete considerazioni dei reali problemi che abbiamo. Molti problemi vengono discussi in termini di dominio dell’AI, la singularity… Questa fantascienza da un lato è priva di fondamento, dall’altro è un misto tra confusione e desiderio di confondere. Una distrazione che per alcuni è naive, per altri è molto conveniente.

Chi è naive ha le sue scuse, ma attenzione a chi ne trae convenienza: hanno tutto l’interesse a non riconoscere le responsabilità, 100% umane sempre e comunque, nella costruzione di questa tecnologia potentissima. È una tecnologia meravigliosa, potrebbe fare cose straordinarie. Se smettessimo di chiamarla intelligenza sarebbe una cosa buona.

I modelli generativi inquinano l'informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…


Articoli simili

Ultime news


Syenta, la startup australiana che promette di velocizzare la produzione globale di chip

L'azienda punta ad accorciare i tempi di produzione in maniera…

Syenta, la startup australiana che promette di velocizzare la produzione globale di chip
L’azienda italiana Engineering ha lanciato un’architettura per un’AI sovrana e governabile

Il sistema di AI EngGPT 2 garantisce tracciabilità e auditabilità…

L’azienda italiana Engineering ha lanciato un’architettura per un’AI sovrana e governabile
Gemini sbarca finalmente su Android Auto (ma non tutti sono contenti)

L'integrazione annunciata un anno fa è ufficialmente iniziata

Gemini sbarca finalmente su Android Auto (ma non tutti sono contenti)
Più di una persona su due nel mondo utilizza l’intelligenza artificiale

Con l'aumento dell'utilizzo cresce anche la diffidenza e circa il…

Più di una persona su due nel mondo utilizza l’intelligenza artificiale

In Evidenza


Intelligenza artificiale: prepararsi al 2026 | Il report di AI News

Il nuovo report di AI News per non farsi sorprendere…

Intelligenza artificiale: prepararsi al 2026 | Il report di AI News
AI, bolla o non bolla? Il parere degli esperti non è unanime

Ne abbiamo intervistati cinque per unire i puntini

AI, bolla o non bolla? Il parere degli esperti non è unanime
Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

Privacy policy| Cookie policy| Cookie setting| © 2026