Trends

News - Trend trimestrale

Volume trimestrale

... ..%

Volume semestrale

... ..%

“L’AI è uno dei presupposti per iniziare di nuovo a pensare di essere umani”, intervista a Matteo Ciastellardi | AI Talks #10

20 minuti

Edoardo Frasso 17 Aprile 2024
20 minuti

Per la nuova puntata di AI Talks, il nostro format di interviste alla scoperta dell’intelligenza artificiale, abbiamo il piacere di parlare con Matteo Ciastellardi, professore di sociologia dei media e sociologia dei processi culturali e comunicativi presso il Politecnico di Milano.

Ciastellardi, già McLuhan Fellow nel 2007 presso l’università di Toronto con un progetto sull’epistemologia della cultura digitale, ha lavorato nel Digital Culture Research Program dell’IN3 diretto da Derrick de Kerckhove ed è stato direttore editoriale della collana McLuhan Studies e dell’International Journal of Transmedia Literacy.
Le sue ricerche sono orientate soprattutto ai Media Studies, con particolare attenzione a Transmedia
Literacy, Swarm e Cloud Intelligence, Connective Intelligence e Media Ecology
. Ѐ autore di numerose pubblicazioni tra cui “La gestione bottom-up dell’informazione in rete. Analisi progettuale e sintesi critica dei sistemi partecipativi online (2017)” e “Le architetture liquide. Dalle reti del pensiero al pensiero in rete (2009)”.

Cominciamo con una domanda che sembra banale ma non lo è, qual è la definizione di intelligenza artificiale?

Mi piacerebbe poter pensare oggi all’intelligenza artificiale come a una formula di produzione, attraverso le macchine, di un supporto rispetto a quello che è il nostro modus operandi di esseri umani, per poter migliorare una serie di assetti che riguardano le nostre posizioni. Professionali, fondamentalmente, ma anche della vita che tradizionalmente costruiamo ora dopo ora, giorno dopo giorno.
Non mi affido alla definizione nozionistica classica ma al fatto che oggi affrontiamo un passaggio di campo per cui l’AI, coi modelli generativi aperti al pubblico, è finalmente alla portata di utilizzo, quantomeno concettuale, di tutti.
Quella che sentiamo nominare come intelligenza artificiale è la punta di un iceberg che ha radici estremamente lontane e profonde e che sta diventando sempre più non il sostituto ma il copilota di molte attività umane. Se riusciamo a gestire questo sostrato che velocizza, potenzia e supporta le nostre possibili attività è sicuramente un alleato vincente.

Parliamo allora di prompt, l’elemento che serve essenzialmente ad accenderla.

Entriamo nel vivo di quella che è la questione dell’oggi. L’intelligenza artificiale c’è da decine di anni e la sfruttiamo in tantissimi contesti senza neanche accorgercene.

Le nostre possibilità tecnologiche sono comprese sempre più in un elemento fondamentale, la cosiddetta ‘datification’ di tutto. Abbiamo dati che arrivano ovunque e da ovunque. Siamo passati attraverso l’era dei metadati, quella dei big data e adesso ne attraversiamo una che nuovamente rimodella lo scenario. E soprattutto fa sì che i dati che vediamo e che possiamo in un certo modo toccare non li conosciamo: sono in quantità talmente alta e classificati in maniera così rarefatta e densa nelle cloud che non ne abbiamo nozione.

Nel momento in cui tutti questi dati articolati attraverso algoritmi predefiniti permettono di avere un passaggio categoriale, otteniamo dei risultati molto affascinanti dal punto di vista della divulgazione pubblica. E soprattutto molto appetibili per chi pensa che l’AI oggi sia un metodo veloce per ottenere risultati che tradizionalmente a noi portavano via tempo, come se avessimo a disposizione un computer ‘servo’ che risponde e fa ricerche.

Questo per arrivare al prompt: se 10 anni fa mi mettevo davanti a un computer, non vivevo l’intelligenza artificiale se non nelle formule di calcolo per cui ottenevo un certo risultato dalla macchina. Potevo avere grafiche particolarmente elaborate o risultati molto interessanti e potevo modificare elementi con dei filtri. Ma oggi parliamo di modelli testuali, i Large Language Model. Quindi io mi metto davanti a una macchina che di per sé non pensa ma ha degli algoritmi. Questa inizia a dialogare con me. O meglio, io inizio a porre richieste tramite uno degli innumerevoli sistemi per dialogare con le AI generative.

Il modello linguistico non capisce la mia lingua e cosa sto dicendo ma ha trilioni di informazioni al suo interno. Capisce gli assetti con cui formulo domande e mi offre una serie di possibili risposte il più vicino possibile a ciò che crede mi aspetti. Non perché conosce me, ma perché conosce la realtà sociale di questo periodo. Perché ha palinsesti che cambiano di momento in momento e delle reti GAN (Generative Adversarial Networks) che valutano l’informazione: se è buona, la fanno tramitare al soggetto che l’ha richiesta. Oppure la rimandano milioni di volte, finché non è la più corretta possibile.

Quindi abbiamo tanti modelli che trasformano quello che era un sistema tradizionale di richiesta e risposta in un sistema ‘triangolato’, dove due origini si contendono la miglior risposta. Può essere un’immagine molto verosimile, un video oppure un testo che va oltre le aspettative dell’utente. Tutto questo passa attraverso il prompt, il modo con cui noi ci interfacciamo con le macchine per comprendere al meglio come sfruttarle e con più velocità. E spesso otteniamo errori, che però ci piace poter considerare come risposte interessanti.

Sappiamo che lei ha un libro in lavorazione proprio dal titolo ‘L’Era del Prompt’

Sì stiamo lavorando a questo testo triangolando varie università e vari pensieri professionali e non. Abbiamo parlato fino a qualche anno fa dell’era del Tag, che prevede che ogni elemento abbia più informazioni di quelle che servono all’elemento stesso. Se ho un oggetto, posso avere avere talmente tante informazioni a riguardo da superare quelle in possesso del produttore. Tutte informazioni taggate, costruite attraverso i modelli sociali, i modelli di riferimento delle persone che creano commenti attraverso infinite possibilità di nozionismo, quindi di meta tagging.
Questo permetteva di avere quello che tradizionalmente era considerato il modello ontologico. A fronte di una parola chiave, un lemma, si costruiva un’ontologia, quindi un insieme di informazioni che espandessero, che potessero legare e relazionare quel concetto a milioni di altri. Questo ha consentito di ottenere le infinite relazioni tra entità che oggi determinano il Learning Language Model. I LLM sono micro ontologie o dei micro linguaggi. Uno dei grandi temi del prompting non riguarda solo come interrogare la macchina ma anche la qualità di quello che mi dice e la provenienza dei dati usati per dirlo. Il problema non è tanto di qualità quanto di decisioni.
Come possiamo utilizzare questi sistemi? Siamo noi che alimentiamo i prompt e possiamo creare micro modelli linguistici con quello che produciamo, testi o immagini. Dipende dalla volontà e dalla necessità professionale. Si apre un mondo che in questo momento è trincerato dietro una serie di opportunismi e di paure su cui abbiamo già speso gran parte del nostro tempo quando è nato il web. Non abbiamo il controllo: sono le grandi holding che decidono più o meno sempre le novità del settore.
Per assurdo dipendiamo più da aziende che fanno dei chip grafici come NVIDIA che da una politica che possa darci informazioni. O da una società che possa portare nelle forme educative, nella scuola per esempio, un utilizzo pratico di questi sistemi.

All’inizio dell’AI generativa si parlava spesso del prompt engineering come di un’attività specifica del futuro. Da un certo momento si è iniziato a considerarlo più come una soft skill, una cosa che tutti padroneggeranno innatamente, come è oggi scrivere alla tastiera di un computer. Dove sta la verità?

Il prompt engineering ha avuto e ha ancora un grande successo perché è il modo in cui io riesco a costruire le domande corrette con un’intelligenza artificiale a fare la differenza. Faccio un esempio banale.

Se cerco notizie su Napoleone, tanto vale che vada in Internet. Abbiamo ottimi motori di ricerca con risultati non filtrati che possono già darci indicazioni interessanti.

Ma se io inizio a pensare secondo la capacità di articolare un prompt in un’ottica umana posso chiedere alla macchina, ad esempio, di ragionare come uno storico, un ricercatore o un esperto di guerre, chiedendo di unire queste figure e creare una relazione per punti sulle campagne belliche di Napoleone.
O possiamo far dialogare due istanze di un Napoleone critico e scettico sulle sue campagne e di uno assolutamente favorevole e positivista a quello che è lo spirito di una Francia dell’epoca e vedere cosa succede. Possiamo interrompere in qualsiasi momento questo dialogo e scegliere di entrare in dialogo noi stessi con dati più o meno storici, non “subendo” quindi passivamente una ricerca ma iniziando uno scambio critico e scoprendo elementi in più.
Pensiamo ai campi in cui coinvolgiamo simultaneamente molte professionalità (come quando si incrociano progettisti, ingegneri, designer o architetti) e consideriamo che queste macchine virtuali non sono sostitutive. Il prompt engineering ci permette di avere idee, formulazioni, passaggi che non ci sono magari immediatamente evidenti e ci permette poi di costruirne di nuove. Sessioni di intelligenza artificiale consentono di lavorare a gruppi e non in solitaria e di avere dei team organizzati. Quindi stiamo guardando verso un futuro in cui questa intelligenza artificiale può rappresentare un’opportunità: il prompt engineering è molto più che semplici formule e domande. È un campo infinito e in continua evoluzione ma è sempre più “vittima” di una semplificazione da parte delle grandi compagnie che vogliono ampliare il parterre di chi può interrogare una macchina e beneficiarne sotto diversi aspetti. Ma forse è una fortuna, un passaggio importante per scongiurare una “gurizzazione” come all’inizio dell’era del web, dove pochi fortunati parlavano dei codici strani.
Oggi tutti parlano tutte le lingue possibili e la macchina risponde. Poi il problema è qui: bisogna fare un filtro sulle persone più che sulle macchine in questo momento, per capire come un’educazione possa migliorare il passaggio epocale che stiamo vivendo adesso.

Quindi mi sembra di capire che il tema è quello dell’evoluzione del linguaggio e del ruolo che il prompting avrà in questo percorso.

Con il prompting attuale noi siamo come degli uomini primitivi che stanno inventando con cura modalità per costruire risultati sempre migliori. Bisogna avere la capacità di comprendere come mettere ‘a proprio agio’ la macchina, con formule linguistiche che vadano a spremere maggiormente un LLM. Già oggi due persone che si interfacciano in modo diverso con lo stesso tipo di intelligenza artificiale ottengono risultati diversi. Vero è che li ottengono diversi anche nel momento in cui formulano la stessa domanda perché questo dipende da come l’AI è costruita oggi, dalla sua tendenza al ‘tiro dei dadi’.
Però sì, stiamo reinventandoci un linguaggio che conosciamo molto bene, gestendo delle modalità con cui possiamo potenziare script linguistici che ci permettono di ottenere risultati utili. Di per sé non aggiungiamo niente a quello che sapevamo. Da un lato registriamo la grande delusione di chi, facendo una domanda alle macchine, si aspetta una risposta “alla Wikipedia”. Dall’altro c’è il grande stupore di chi facendo una domanda ugualmente specifica, può imparare o a vedere cose nuove, che non pensava di poter mettere sul tavolo e fa una bella differenza.

Questa nuova forma di relazione con le informazioni e con i dati cambia anche la nostra percezione del reale? Come tutto questo sta modificando il mondo della comunicazione?

Durante una tavola rotonda di UPA di qualche settimana fa emergeva un termine coniato dal professor Derrick de Kerckhove. Parlava della nascita di un Common Sense legato ai modelli di intelligenza generativa, a cui io tentavo di rimarcare anche la formulazione del Common Self, cioè una forma di personificazione del dato su come noi viviamo effettivamente questo senso comune. Tutti i dati che oggi un modello linguistico può classificare sono sempre succubi di una variabile umana che influenza il modello stesso.

Prendiamo i social network: noi apprendiamo dai social informazioni che rideterminano il modo in cui proseguiamo a sfogliare i social stessi. C’è un social in particolare, TikTok, che in base alla permanenza del nostro dito sullo schermo, nel momento in cui giriamo una pagina o l’altra, determina il cursus della nostra lettura. Ogni nostro singolo gesto, che contiene milioni di nostre tracce, determina il modo con cui noi stessi evolviamo nel nostro modo di leggere quello che ci sta intorno. L’intelligenza artificiale sta semplicemente prendendo questi dati e ci sta dando, con una modalità forse un po’ più democratica, la possibilità di scegliere in che modo dialogare per poterli riprendere. Con i LLM i dati quantomeno ritornano di nuovo nella proprietà e nelle modalità di chi li interroga. E si genera anche una sorta di intimità nel rapporto con il dato. Si entra in un loop, che genera poi un problema educativo. Dobbiamo imparare, mentre usiamo le AI, a capire con un occhio critico un po’ smaliziato quando diventa il dato a trascinarci, quando diventa qualche cosa che sfugge al nostro controllo. Quando insomma procedere con l’esplorazione sta diventando più l’interesse di una di una big company piuttosto che nostro.

A questo proposito, l’intelligenza artificiale amplifica la creatività dell’uomo o la riduce perché in qualche modo la inserisce all’interno di un flusso predominato da grandi compagnie?

È una domanda molto più intelligente di qualsiasi risposta che si possa dare. Se pensiamo che l’intelligenza artificiale ha avuto tra i primissimi scopritori, fruitori e sperimentatori gli artisti, ne deduciamo che il modello ha già permesso di cambiare alcuni paletti con cui ci rapportiamo alla creatività.
Non abbiamo elementi prodotti dall’intelligenza artificiale, ma con l’intelligenza artificiale. Siamo sempre noi che da qualche parte lanciamo i dadi e l’intelligenza artificiale costruisce qualche cosa.
Fornisce la possibilità di ampliare un orizzonte che noi non avremmo mai afferrato. La reale creatività è un processo estremamente dispendioso e raro ed è un elemento che può beneficiare di un cambio di prospettiva, ma nei limiti entro cui continuiamo a voler avere un copilota rispetto alle nostre possibilità espressive e non un sostituto.

Perché è vero che con l’intelligenza artificiale abbiamo una produzione rapida e veloce di qualche cosa che è affascinante e magari ci lascia immaginare, ma spesso e volentieri non è nelle corde di quello che volevamo originariamente. Con l’AI viviamo lo stupore della creatività, non l’energia e il senso di meraviglia di essere noi i primi ad aver trovato un elemento che fa la differenza.
E questo è importantissimo per poter fare una netta distinzione tra clonare ottenendo qualche cosa con un assetto interessante perché composto da milioni di possibilità e mantenere l’idea che anche una creazione molto semplice possa beneficiare di un supporto per trasmettere un valore, un senso, un sentimento, anche solo semplicemente una piccola idea rispetto a quello che è lo stupore.

Stando a quello che ha detto, ne dobbiamo dedurre che le allucinazioni sono forse uno degli elementi più interessanti dell’intelligenza artificiale. Paradossalmente uno dei più ‘umani’.

Le allucinazioni portano l’intelligenza artificiale molto vicino a quello che è un modello, se vogliamo, onirico. Tra l’altro i primi esperimenti di creazione onirica vertevano proprio su datification e prototipi in tal senso erano vicini anche a Google ad altre grandi compagnie, ben prima dei tempi dell’AI generativa. Non si tratta però propriamente di un’allucinazione. È la macchina a determinare in che modo il tiro di dadi con i miliardi di possibilità darà un certo tipo di risultato, che infatti non è replicabile.

Siamo da un certo punto di vista all’opposto di quella che è la tradizione: un tempo la macchina era proprio quella cosa che consentiva la replicazione. Ricordiamo tutti Walter Benjamin con “L’opera d’arte nell’epoca della sua riproducibilità tecnica”. Un pensiero ancora valido anche alla nascita dei vari token per bloccare le opere digitali. E adesso ci troviamo con il problema opposto. Non riusciamo a replicare tecnicamente un’opera generata dall’intelligenza artificiale perché è qualche cosa che, appunto, soffre di un’allucinazione algoritmica, che mi sembra essere il termine più idoneo per dare l’idea di questa casualità voluta dalla macchina. Allucinazione su cui noi comunque viviamo questo stupore infinito, ma perdiamo tutto il senso critico e di realismo di quello che c’è dietro. Siamo molto affezionati alle forme di stupore oggi.

Lei è uno dei massimi esperti di Marshall McLuhan. Ricordando la massima di McLuhan secondo cui il mezzo è il messaggio, qual è il messaggio dell’intelligenza artificiale?

Si può rispondere con un aneddoto che riguarda Marshall McLuhan non sempre citato nei manuali. Quando McLuhan mandò il suo testo in stampa, per un errore tipografico, gli tornò indietro la dicitura the medium is the mAssage, ‘il mezzo è il massaggio’, anziché messaggio. Uno studioso si sarebbe irrigidito di fronte a questo abominio comunicativo. McLuhan con la sua visione geniale capì che poter avere la visione del mezzo come massaggio era un vantaggio. Poteva riferirsi al ‘massaggio’ come all’assuefazione e al piacere. La televisione portava un’assuefazione rispetto al contenuto che offriva, dando l’illusione di una forma di rilassamento che poi non era tale, anzi era una polarizzazione che rendeva più stanchi dopo la visione che prima.
E McLuhan ci ricordava anche che questo ‘massage’ poteva risuonare come ‘mass-age’, ossia come l’epoca delle masse. E la parola originale ‘message’ richiamava a sua volta ‘mess-age’, l’epoca del caos (da mess, disordine). Io direi che con questa sua citazione tocchiamo benissimo quello che è il modello dell’intelligenza artificiale, proprio in questa quadripartizione. Il medium ci porta uno strumento nuovo che sovraccarica talmente tanto quella che è la nostra intenzione da cambiare lo strumento stesso. Ovvero noi siamo sovraccaricati dallo strumento e cambia il nostro modo di poter intendere il contenuto.
Allo stesso tempo l’AI è una grande rappresentazione dell’epoca di massa, la massa di dati, la massa di persone che cambiano effettivamente lo status quo. E anche di questa cosiddetta mess-age, la nuova epoca del caos. Che non tanto qualcosa di incontrollato quanto qualcosa di talmente articolato e complesso che non è ancora facile da calcolare, seppur ormai stiamo tentando di arrivare a calcolare tutto.

In tanti hanno la tentazione incolpare l’AI di ogni rischio di catastrofe, in una visione che spesso tocca la fantascienza. Si parla molto del concetto di Pi(doom), la probabilità di apocalisse fantascientifica. Lei dove si colloca rispetto a questa prospettiva?

Per quanto sui film di fantascienza abbia sicuramente un background che vorrebbe vantare grande competenza, non penso che in questo momento il grande timore sia quello di una visione alla Terminator.
Il nostro problema è il solito: quello delle grandi popolazioni che a un certo punto autodeterminano il loro spegnimento. Stiamo definendo tramite sistemi con intelligenza artificiale generativa la fine di tutta una serie di processi, di sistemi economici, governativi e di comunicazione, vivendo un cambio epocale. Ma come al solito non lo viviamo tentando di gestirlo al meglio: abbiamo timori reverenziali, cavalcando in modo assolutamente fantasioso tutte le possibilità.

Se anche solo una persona avesse la possibilità di mettere mano a sistemi particolari oggi potrebbe determinare delle micro o macro catastrofi che una macchina di per sé, salvo una programmazione fatta a monte, non dovrebbe poter costruire. I modelli non hanno ancora un’operatività tale da causare ripercussioni dirette. Ma parliamo delle forme di trasformazione alle quali assistiamo: la medicina, la sostenibilità ambientale, il cambiamento delle forme di dialogo e dei modelli politici. L’intelligenza artificiale ci permette di trovare cose che noi non siamo in grado, con le nostre normali conoscenze o con i limiti della capacità umana, di trovare.

Finché i LLM e gli algoritmi non hanno operazionalità in qualche cosa che li possa trasformare ulteriormente in altro da semplici modelli linguistici dotati di grande enfasi e potenza, io non sono preoccupato. Sarei più preoccupato di chi, dietro, possa decidere di usarli per modificare la società.
Per fare un esempio, già oggi nel momento in cui entro in una delle grandi piattaforme di e-commerce, sono abbastanza contento dei suggerimenti che mi vengono dati. Se ci pensiamo è molto inquietante, perché vuol dire che i miei gusti sono stati targettizzati. C’è una previsionalità e io stesso, da utente, ne sono abbastanza soddisfatto. Tutto ciò ci fa vivere in una bolla in cui ci sentiamo abbastanza felici e non abbiamo l’impressione che le cose vadano male (anzi se lo diciamo passiamo per rivoluzionari che non accettano il progresso). E in questi processi la macchina non è ancora co-pilota, quindi immaginiamo il ruolo ulteriore che l’intelligenza artificiale potrebbe avere in questo.

Ma credo anche che ci sia una grande differenza tra avere coscienza dei processi e avere la capacità di poterli utilizzare bene, ampliandoli il più possibile per chi domani deciderà come utilizzarli e cosa farne, ossia i giovani.
L’AI può diventare impregnante in settori dove noi ancora non arriviamo, dal controllo delle catastrofi, agli incendi, alle previsioni del tempo. Per tanti aspetti possiamo migliorare la nostra qualità della vita. Mi piacerebbe che potessimo concentrarci più su questi aspetti che non su tutti gli altri spettri.

A proposito di paure e del tentativo di dominarle, parliamo dell’AI Act. L’Europa sta agendo correttamente?

L’Europa sta cercando di mettere dei piccoli paletti con una tempistica che permetta di cambiare idea in corso d’opera. Con scadenze dilazionate nel tempo che forse potranno variare a fronte dell’evoluzione che stiamo tentando di gestire.
L’UE fa benissimo a preoccuparsi, sta tentando di trovare dei punti fermi per dare delle garanzie. Il problema, come sempre, è che queste garanzie nascono dal dialogo con grandi stakeholder che si curano soprattutto di altri interessi, per quanto io non metta in dubbio la loro buona volontà né l’importanza del loro valore di capitale importante nella nostra società.

Una delle osservazioni più importanti sui grandi paletti europei è la seguente: è comprensibile che un contenuto possa essere vietato, se dannoso qualitativamente, ma il mondo dell’informazione continuerà a gestire quel contenuto. Quindi avremo reporting sommari o rielaborazioni di questi contenuti originali che qualcuno produrrà o desumerà. Così l’intelligenza artificiale, invece che avere accesso ai contenuti originali, lo avrà a questi reporting. Accederà a uno, due o tre livelli di deferimento rispetto all’originale. Quindi cosa conviene? Avere accesso a un contenuto originale o avere accesso necessariamente a un rimaneggiamento che più volte ha rivoluzionato il contenuto originale?
Non c’è il giusto o sbagliato, bisogna interrogarsi su tutte le possibilità. Chiaramente ci sono degli aspetti economici che vanno tenuti sempre presente. Bisogna trovare delle formule che possono permettere di favorire tutte le realtà che stanno investendo in questo cambiamento, ma anche quelle che ne sono investite, cioè le persone.

Come in Italia gli operatori dei settori della comunicazione stanno reagendo di fronte all’intelligenza artificiale? Prevale il timore o la curiosità?

L’impressione che ho io è di una situazione abbastanza altalenante in cui a fronte di un primo momento di entusiasmo e timore insieme si sta adesso portando avanti una politica di integrazione e sfruttamento ai fini di quelli che possono essere le produzioni, le produttività e le utilità che l’intelligenza artificiale può offrire. Chiaramente, mirando al ritorno della qualità. Vedo che moltissimi interlocutori, soprattutto i grandi holding della comunicazione e del giornalismo, stanno trovando un nuovo trampolino di lancio affinché la qualità torni a diventare il primo principio, l’ente di misura delle scelte. Si tratta di scegliere rispetto a quello che è un modello che può regalare cinque minuti stupore ma alla fine non sappiamo che cosa ci può comunicare.

Forse, dico questa cosa con grande speranza, l’intelligenza artificiale è uno dei presupposti per iniziare di nuovo a pensare di essere umani e non più macchine che possono usare macchine per far chissà che cosa. Tornare ad avere un assetto umano su tutta una serie di aspetti e deferire all’intelligenza artificiale quelli più meccanici, i cosiddetti meccanical task. Che, illuminati da tutta una serie di modelli linguistici, possano gestire gli aspetti non così creativi, non così predominanti della cultura del lavoro e delle professioni.

Da docente, secondo lei che idea hanno le nuove generazioni rispetto all’AI? L’avvento dell’intelligenza artificiale per noi può essere una rivoluzione, ma per loro è semplicemente un’evoluzione, immagino, del mondo digital in cui sono nati.

Ho a che fare con fasce di età che partono dai 14 anni arrivano agli -enta. La percezione, per quanto possa essere un po’ diversa tra le varie fasce di età, in questo momento è molto appiattita dal fatto che ci sia una finestra di utilitarismo: l’AI appare uno strumento che velocizza alcuni processi e che regala più tempo libero. Uno strumento che da un certo punto di vista è il potenziamento di qualcos’altro che già c’era.
Io vedo in questo aspetto un grande problema di educazione e formazione. Se iniziamo a dare per assodato che la promozione di un “lassismo intellettuale” (per usare un brutto termine), supportato dall’intelligenza artificiale garantisca ai giovani di trovare formule anche creative per fare qualcosa, in verità è un grande guaio.

Ma sia all’università che nelle scuole secondarie, nel momento in cui si mostrano le potenzialità dell’AI non solo legate al prompt engineering, ma anche agli aspetti critici, produttivi e al miglioramento dell’attenzione scolastica o professionale, si sviluppano dei contesti di lavoro e di equipe interessanti. Ho studenti che hanno realizzato produzioni estremamente lucide, in cui l’intelligenza artificiale è diventata un supporto. Se prima avrebbero avuto carta bianca, hanno potuto misurarsi con un interlocutore che ha permesso di essere più rigidi e severi verso sé stessi e verso la revisione nei contesti in cui hanno studiato. Quindi, se come formatori iniziamo a far vivere l’intelligenza artificiale in molto più critico e attento allora qualche cosa sicuramente cambia.

La scuola sta ancora capendo quali sono le formulazioni migliori, perché si respira chiaramente la grande frustrazione di considerare l’AI un altro noiosissimo sistema per copiare e ottenere risultati a basso regime. Ma se cediamo su questo, perdiamo un po’ di corse del treno.

Quindi in questo senso l’educazione va vista ancora come un tentativo di ripararsi dalle semplificazioni suggerite dalle big tech a fini commerciali, dall’illusione che l’AI funzioni semplicemente come scorciatoia.

L’educazione che si opponeva a un modello educativo digitale ha cambiato completamente i suoi parametri in fase Covid. Se non ci fosse stato un modello educativo digitale avremmo avuto due anni bui, senza poter avere relazioni, pur con tutte le difficoltà che ci sono state. In quel periodo ci siamo come risvegliati e abbiamo scoperto che ci sono ulteriori strumenti e possibilità di mettere a frutto altro.

Ora siamo di fronte a un percorso inevitabile, già iniziato. Sembra banale a dirsi, ma bisogna decidere di gestire le novità al meglio capitalizzando ciò che c’è di buono e tentando di sviluppare una formula critica per tutto quello che non funziona o non funzionerebbe invece di condannarlo a priori. Quando un sistema riesce a attivare un po’ di curiosità la conoscenza germoglia. Invece la becera copia fa semplicemente esplodere informazione su informazione generando banali e sterili dibattiti su ciò che è giusto o sbagliato. Dibattiti che l’intelligenza artificiale attira frequentemente perché, come sappiamo bene, ‘mente’. Ma non lo fa perché ha il concetto di menzogna, bensì perché ha un concetto di valore relativo a quello che è il prompt attraverso cui viene interrogata.

Stiamo toccando un tema che non è sondabile da noi due soli. Se non, spero, per far nascere qualche curiosità e limite agli attriti che oggi ci sono. La cosa migliore è trovare prospettive e idee. Tornare umani, con un sistema che potrebbe aiutarci invece che deprimerci.


In Evidenza


Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Chi fermerà l’AI? Riflessione sull’appello di Musk

Elon Musk e altri mille esperti chiedono una pausa di…

Elon Musk e altri mille esperti: “Allarme intelligenza artificiale”

Elon Musk e altri mille esperti hanno chiesto di sospendere…

Microsoft 365 Copilot, un’AI generativa per la produttività

Microsoft ha lanciato 365 Copilot, un servizio di intelligenza artificiale…

OpenAI rilascia GPT-4, più potente e multimodale

GPT-4 è arrivato. Un modello multimodale e con 100 trilioni…