Nel vasto mondo dell’intelligenza artificiale non esiste solo l’interazione tra AI e persone; anche i modelli linguistici stessi possono intraprendere forme di collaborazione tra loro.
Un team del Computer Science and Artificial Intelligence Laboratory (CSAIL), un istituto di ricerca interno al MIT, ha realizzato un curioso esperimento cognitivo-relazionale in digitale. I ricercatori sono partiti da una domanda semplice quanto profonda: possono le diverse AI collaborare tra loro confrontandosi e parlando come gli umani? E quali risultati possono raggiungere?
Diversi gli esperti coinvolti: il dottorando del MIT in ingegneria elettrica e informatica Yilun Du, l’affiliato al CSAIL Shuang Li, il professore di ingegneria elettrica e informatica Antonio Torralba e il professore di scienze cognitive computazionali Joshua Tenenbaum. Il ricercatore di Google DeepMind Igor Mordatch ha fornito dei contributi.
I temi trattati all’interno dell’articolo
Tante AI diverse
Spesso di parla genericamente di intelligenza artificiale come se fosse un’unica grande entità con caratteristiche ben identificabili, ma in effetti questa visione è inesatta. È più corretto parlare di intelligenze artificiali. Le AI generative sono svariate e le caratteristiche di ognuna sono definite da tanti fattori: diverse metodologie in sede di addestramento, logiche degli algoritmi, modi di approcciare le informazioni.
I ricercatori del MIT hanno introdotto una strategia per portare più sistemi AI a discutere con il fine di ‘stabilire’ insieme la migliore risposta possibile a determinate domande. I modelli linguistici hanno potuto in questo modo aumentare l’aderenza ai dati fattuali e affinare il loro processo decisionale.
L’imitazione umana
Il processo è stato strutturato in più round di generazione e critica di risposte. Ogni modello linguistico ha generato una risposta alle varie domande e ha poi incorporato il feedback di tutti gli altri agenti per aggiornare continuamente la propria. Questo ciclo culminava ogni volta in un output finale con un voto a maggioranza tra le soluzioni dei modelli.
È stata una sorta di imitazione delle dinamiche di una discussione di gruppo umana, in cui gli individui contribuiscono a raggiungere una conclusione unificata e ben ragionata.
La ricerca ha esaminato la risoluzione di problemi matematici a vari livelli scolastici (dalle elementari fino alle superiori) e gli scienziati hanno osservato un significativo miglioramento delle prestazioni attraverso il processo di dibattito in questa tavola rotonda digitale.
Collaborazione multi-AI
Aspetto interessante dell’approccio di collaborazione multi-AI è che risulta facilmente applicabile a tutte le AI generative di testo. Seguendo la metodologia indicata, chiunque tra ricercatori, sviluppatori o persone comuni potrebbe utilizzare lo strumento per migliorare coerenza o accuratezza fattuale dei modelli linguistici in generale.
“Il nostro processo coinvolge una moltitudine di modelli AI – ha spiegato il dottorando Yilun Du – ognuno dei quali apporta intuizioni uniche per affrontare una domanda. Sebbene le loro risposte iniziali possano sembrare troncate o contenere errori, questi modelli possono affinare e migliorare le proprie risposte esaminando quelle offerte dalle loro controparti”.
Man mano che i modelli AI si impegnano nel discorso e nella deliberazione, sono meglio equipaggiati per riconoscere e rettificare i problemi, migliorare le proprie capacità di risoluzione e verificare meglio la precisione delle loro risposte. “In sostanza – prosegue Yilun Du – stiamo coltivando un ambiente che li costringe ad approfondire il nocciolo di un problema. Ciò contrasta con un singolo modello AI solitario, che spesso ripete a pappagallo contenuti trovati su internet. Il nostro metodo, invece, stimola attivamente i modelli AI a creare soluzioni più accurate e complete“.
Le allucinazioni
Il metodo può aiutare a risolvere quelle che in gergo vengono chiamate ‘allucinazioni‘, informazioni casuali estratte randomicamente che tanto somigliano a dei bug. Il cuore del problema dei modelli linguistici risiede infatti nell’occasionale (in alcuni più che in altri) incoerenza di alcune delle risposte generate. Inesattezze, ragionamenti errati, talvolta vere e proprie invenzioni: tutti limiti che stiamo imparando a conoscere piuttosto bene. Il team ha messo ciascuna AI nella posizione di valutare attivamente le risposte di tutte le altri ‘partecipanti’ limitando la tendenza a cadere nell’assurdo.
Di recente, Sam Altman ha invitato a vedere la caratteristica delle allucinazioni più come un elemento fondativo del modo di pensare delle intelligenze artificiali piuttosto che come un difetto: “Le allucinazioni sono più una caratteristica che un bug”.
Per un’AI sempre più autonoma
Il formato del dibattito di collaborazione multi-AI non ha ancora incorporato le forme più complesse di discussione che contribuiscono al processo decisionale collettivo intelligente, dunque per adesso va guidato. Ma tra gli scopi principali della ricerca c’è anche quello di ridurre la dipendenza dal feedback umano, facendo sì che i modelli linguistici possano migliorare la loro fattualità e ragionamento in modo autonomo. Secondo Yilun Du è qualcosa di inquadrabile come una nuova era di comprensione e applicazione del linguaggio AI.
“Mentre i ricercatori continuano a perfezionare ed esplorare questo approccio – spiega – possiamo avvicinarci a un futuro in cui i modelli linguistici non solo imitano il linguaggio umano, ma esibiscono anche un pensiero più sistematico e affidabile“.
Come ha dichiarato il professor Anca Dragan, professore associato presso il Dipartimento di ingegneria elettrica e informatica dell’Università della California “È un grande passo avanti rispetto al prompt della catena di pensiero“.