A margine dell’evento “Orbits – Dialogues with Intelligence”, ideato da Manuela Ronchi e dalla sua Action Holding e prodotto da Action Agency, abbiamo colto l’occasione per approfondire con il professor Luciano Floridi, già professore di filosofia a Oxford, oggi direttore del Digital Ethics Center dell’Università di Yale, l’impatto che l’intelligenza artificiale – e soprattutto quella generativa – può avere sull’infosfera, ossia l’ambiente informazionale digitale in cui noi, in quanto “organismi informazionali”, interagiamo.
L’AI generativa viene infatti addestrata (soprattutto) con i dati presenti su internet. Ma la sfera digitale vede, accanto ai dati ‘reali’, la presenza di un numero crescente di contenuti di origine artificiale, prodotti dall’AI generativa. E questi contenuti artificiali – ricchi di allucinazioni – vanno a confluire nei futuri dataset di addestramento dei modelli stessi.
Risulta difficile navigare questo habitat sempre più ‘inquinato’. Come possiamo fare?
“Questo si potrebbe limitare con un po’ di prevenzione – ci ha spiegato Floridi -, perché sappiamo che quello che oggi si definisce come il ‘collasso dei modelli’, il model collapse, è dovuto all’introduzione di dati che non sono di alta qualità e che portano a modelli di minori qualità, che generano a loro volta dati ancora più scarsi. Si entra in un circolo vizioso in cui cattiva qualità genera ulteriore cattiva qualità. Fino a un punto in cui si parla di collasso per l’inutilità del prodotto ottenuto.
Un po’ di prevenzione sarebbe intelligente, ma, purtroppo, la prevenzione non è tipica della storia umana, quindi temo che si andrà poi ai ripari, a risolvere questioni che si sarebbero dovute anticipare. Per chi non vuole correre questi rischi, attenzione ai dati sintetici. Non sono il Sacro Graal, non sono la soluzione. Sono stati fatti vari tentativi e ricerche; al momento, l’opinione più informata ci dice che non sarà il futuro. I dati sintetici hanno un enorme valore per tutt’altro, ma non per l’addestramento dei large language models“.
Un altro elemento di interesse con riferimento al training dei modelli generativi è la possibilità di procedere inversamente, ossia far sì che questi disimparino informazioni apprese in fase di training. Una testata giornalistica è responsabile per la pubblicazione di informazioni false. È anche tenuta a rimuovere le notizie su un soggetto che non siano più rilevanti, su richiesta e in forza del diritto all’oblio. Ma come ci si può appellare a un diritto all’oblio AI con riferimento ai large language models?
“Oggi parliamo tantissimo di machine learning, ma in realtà è ormai da tanti anni che conosciamo metodologie sofisticate, ma molto diffuse, di ‘machine unlearning’. Sono strumentazioni che servono a risolvere il problema dell’output che non vogliamo. Se noi abbiamo fatto un machine learning che produce informazioni che non dovrebbero essere prodotte, o perché non sono abbastanza buone, o perché sono improprie, oppure perché ad esempio non rispettano la privacy, c’è la prima soluzione, costosissima, che è quella di chiudere tutto; c’è la seconda soluzione, che è quella di rifare tutto il training, costosissima. E poi c’è quella del machine unlearning, che, detto in maniera molto semplificata, è una modalità secondo la quale si individuano informazioni che il nuovo modello non dovrebbe produrre e si avvicina il vecchio modello al nuovo modello, rimuovendo le informazioni che non vogliamo più in output dal training di questo modello numero 2. Tanto più il modello numero 2 si avvicina a quello che sarebbe il nostro modello ideale, e quindi si distanzia dal modello numero 1, che era quello che produceva le informazioni che non volevamo, tanto meglio il machine unlearning funziona.
Attenzione, perché il machine unlearning, oltre a essere una tecnica molto sofisticata, è anche legata, per dirlo in modo semplice, ad averci pensato prima. Cioè, il machine unlearning funziona bene quando io faccio il training con il machine learning pensando già in anticipo che potrei voler invertire il processo. Allora il machine unlearning funziona molto bene, altrimenti, spesso, è limitato. In realtà, quello che avviene è che mettiamo dei filtri. Cioè, il sistema dietro è identico e abbiamo messo dei filtri, e le domande su Luciano Floridi non riceveranno più risposta”.
A proposito di questo, ci sono stati casi di limitazione dei bias che hanno prodotto l’effetto opposto, o comunque un’estremizzazione dall’altra parte. Penso al modello Gemini, che, ‘corretto’ verso una maggiore rappresentatività in termini razziali, inizialmente generava immagini dei padri fondatori americani neri. Come si evita una correzione eccessiva?
“In realtà, le allucinazioni fanno parte del sistema – ha spiegato Floridi -. Questi sono sistemi statistici che non possono essere dimostrabilmente sicuri al 100%. Contrariamente alla vecchia intelligenza artificiale, che aveva anche la possibilità di avere risultati dimostrabilmente accertabili, in questo caso si tratta di strumenti statistici. E quindi sta nella statistica stessa la possibilità dell’errore, dell’allucinazione. Si può ridurre, si può limitare al massimo, si può cercare anche di mettere soluzioni che poi, quando ci sono le allucinazioni, corrono ai ripari, ma pensare di eliminare le allucinazioni in un sistema statistico vuol dire non aver capito che sono sistemi statistici. Quindi che non faranno mai 2+2=4 perché c’è una logica deterministica di deduzione, ma perché quasi sempre fa 4. La volta che farà 22 sarà un problema. Probabilità è probabilità, lo zero non c’è”.
La scuola che rincorre
Nel corso dello show-how, il professor Floridi ha fatto riferimento anche allo stato dell’occupazione. Il filosofo ritiene che il reale problema non sia tanto la mancanza di lavoro, quanto un mismatch (non corrispondenza) tra domanda e offerta. Per questo, gli abbiamo chiesto se il prompt engineering, ossia la capacità di creare domande efficaci affinché i modelli generativi producano l’output desiderato, sia una skill che dovrebbe essere introdotta già in ambito scolastico.
“Molti di questi momenti un po’ modaioli sono importanti, però attenzione a non esagerare con l’inseguimento della moda attuale – ha commentato -. Quello che bisogna ricordare è che, quando si cambia il sistema formativo di base, ci vogliono anni per l’implementazione: tu devi cambiare la legge, fare i formatori, fare arrivare i formatori attraverso la formazione nelle scuole e nelle università. E allora, 7/8 anni dopo, fai finalmente quello che avevi pensato di fare. Oggi avremmo esperti HTML. È pericolosissimo.
Invece, cose come il prompt engineering o simili skills si possono acquisire nel giro di pochissime settimane nel mondo del lavoro. Ed è più l’azienda che deve formare. Anche perché ci saranno prompt e prompt. Insomma, ci saranno bisogni diversi, ad esempio, di un’azienda che produce musica verso un’azienda che produce contenuti per la pubblicità. Quindi, queste skills sono importantissime, ma si possono acquire dopo la formazione di base. Che è invece sapere, ad esempio, che esistono i prompt e come funzionano i large language models a livello universitario. Su questo farei un po’ di attenzione, altrimenti saremo sempre a inseguire una moda e saremo sempre in ritardo”.