Trends

News - Trend trimestrale

Volume trimestrale

... ..%

Volume semestrale

... ..%

Apple ha la nuova AI più potente di tutte? Le promesse di ReALM

Apple avrebbe sviluppato un'AI le cui performance supererebbero quelle di GPT-4 sfruttando un minore numero di parametri.

Apple ha pubblicato uno studio che documenta i risultati di un nuovo LLM chiamato ReALM (da Reference Resolution As Language Modeling). Gli sviluppatori assicurano che sancirà un nuovo standard: le sue performance superano quelle di GPT-4. I paper sugli sviluppi AI di Apple sono sempre più frequenti. Forse anticipano annunci eclatanti previsti per l’estate.

Mai più perdere il filo

La sfida che Apple ha deciso di affrontare è quella della “risoluzione delle anafore“. Le anafore sono una figura retorica e linguistica che consiste nella ripetizione di una o più parole all’inizio di frasi consecutive o di versi successivi. Spesso le macchine faticano nel mettere correttamente in relazione tutte le anafore con gli elementi in un contesto o su uno schermo. Ѐ questo il limite che talvolta porta a darci l’impressione che ‘perdano il filo‘ dei discorsi. Il problema è accentuato nelle AI che devono comprendere contesti ma che non sono conversazionali. “Sebbene i Large Language Model abbiano dimostrato di essere estremamente potenti per una serie di attività – scrivono gli autori dello studio di Apple – il loro utilizzo nella risoluzione delle anafore, in particolare per entità non conversazionali, rimane sottosfruttato“.

Istruzioni? Non necessarie

La risoluzione di questo problema è una parte importante della comprensione del linguaggio naturale, poiché consente agli utenti di utilizzare pronomi e altri riferimenti indiretti senza generare confusione nella macchina. Nella creazione degli assistenti digitali, lo sviluppo della capacità di comprensione delle anafore, applicato a segnali verbali e informazioni visive, ha rappresentato storicamente una sfida significativa . Il sistema ReALM di Apple cerca di risolvere questo problema convertendo il complesso processo di risoluzione dei riferimenti in un puro problema di modellazione del linguaggio. In tal modo, può comprendere riferimenti a elementi visivi visualizzati su uno schermo e integrare in automatico questa comprensione.

In parole povere, a differenza del grosso delle AI, ReALM può comprendere un contesto, compresi i suoi elementi ambigui, senza che questi vadano necessariamente indicati e specificati dall’interlocutore. Il che le permette di cogliere sottotesti in modo più dettagliato, consentendo interazioni più naturali con gli utenti.

Un panorama in cui gli utenti possono interagire con gli assistenti digitali facendo riferimento a ciò che è visualizzato sui loro schermi ma senza la necessità di fornire istruzioni precise e dettagliate rappresenta una miniera d’oro: gli assistenti conversazionali diventerebbero molto più utili in una gran varietà di contesti.

Apple riporta orgogliosamente che ReALM arriva a superare significativamente le capacità di GPT-4 di OpenAI. “Il nostro modello più piccolo – scrive – raggiunge prestazioni paragonabili a GPT-4 e i nostri modelli più grandi lo superano notevolmente“.

Un’AI a misura di device

Come fatto notare in queste ore dagli analisti della banca di investimento Evercore ISI, la grande innovazione del nuovo sistema Apple risiede anche nel fatto che le sue performance vanno nella direzione di battere quella dei competitor utilizzando un numero inferiore di parametri. Il risultato rappresenta un grande vantaggio per Apple: l’azienda potrebbe avere per le mani un’AI molto più adatta ad essere inserita nei device come smartphone, tablet o pc di quanto lo siano quelle delle altre compagnie.

Ecco perché Evercore ISI non ha dubbi: nonostante questo primo anno e mezzo di calma piatta, Apple diventerà una protagonista assoluta dell’AI e anche molto presto. Solo poche settimane fa gli accordi stretti tra Apple e Google per implementare Gemini dentro i nuovi iPhone avevano lasciato pensare che l’azienda di Cupertino fosse ancora indietro con gli strumenti AI.

L’architettura di ReALM , probabilmente, sarà alla base dell’implementazione di Siri di cui si vocifera da qualche mese, che forse sarà presentata a giugno durante il Worldwide Developers Conference insieme ad altre innovazioni. Secondo molti, considerato il gusto per la teatralità di Apple, non potranno che essere sbalorditive.


Articoli simili

In Evidenza


Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Chi fermerà l’AI? Riflessione sull’appello di Musk

Elon Musk e altri mille esperti chiedono una pausa di…

Elon Musk e altri mille esperti: “Allarme intelligenza artificiale”

Elon Musk e altri mille esperti hanno chiesto di sospendere…

Microsoft 365 Copilot, un’AI generativa per la produttività

Microsoft ha lanciato 365 Copilot, un servizio di intelligenza artificiale…

OpenAI rilascia GPT-4, più potente e multimodale

GPT-4 è arrivato. Un modello multimodale e con 100 trilioni…