Rivoluzione vocale: Alexa AI arriverà entro l’anno

Rivoluzione vocale: Alexa AI arriverà entro l’anno

La nuova era degli assistenti vocali è ufficialmente iniziata: l’attesa Alexa AI arriverà entro la fine di quest’anno.

Già a pochi mesi dalla diffusione di ChatGPT in molti avevano iniziato a prevedere l’applicazione delle intelligenze artificiali generative per le voci di supporto che popolano le nostre case, le nostre auto e i nostri cellulari. Anzi, i tool in quei mesi erano apparsi addirittura superati vista la forza dirompente del prodotto di OpenAI e affini.

Si attendeva solo un segnale da parte di qualcuno dei colossi del settore.

Alexa di Amazon sarà il primo degli assistenti vocali ad entrare nell’universo della comunicazione generativa, integrando un LLM (modello linguistico di grandi dimensioni) creato ad hoc.

Il grande annuncio

L’annuncio è stato dato dal vicepresidente senior di dispositivi e servizi di Amazon, Dave Limp, durante l’evento annuale per il lancio dei nuovi prodotti, tenuto negli uffici aziendali di Amazon interni alla sede di Washington.

La soprannominata Alexa AI (altrimenti detta Let’s Chat) verrà resa disponibile in un primo tempo solo in lingua inglese, in tutti i dispositivi già esistenti.

Ci vorrà del tempo per integrare queste tecnologie – ha spiegato Limp, fresco di annuncio di prepensionamento e alla sua ultima presentazione di Amazon in assoluto -, ma sono molto ottimista sul fatto che siamo partiti con un inizio eccellente”.

Alexa sarà capace di comunicare in uno stile meno robotico, più umanizzato e probabilmente personalizzabile. Anche attingendo ad informazioni in tempo reale sulla falsariga di generatori di testo come Bard, riuscirà a creare uno scambio con gli utenti tale da imitare una forma di conoscenza personale ed empatica.

La visione di Limp è che gli utenti possano impostare insieme all’AI una sorta di routine di vita condivisa.

Un’AI anti-allucinazioni

La ragione per cui l’AI generativa arriva solo relativamente tardi ad integrare le funzioni degli assistenti vocali è l’altissimo livello di affidabilità necessario.

Il dirigente responsabile di Alexa, Daniel Rausch, ha speso proprio alcune parole su quelle che in gergo AI sono chiamate ‘allucinazioni’, ciò che comunemente definiremmo errori o bug. Alexa AI sarà strutturata attorno a un’attitudine il più possibile umana e gli sforzi dell’azienda vanno nella direzione di differenziarla rispetto ai chatbot presenti adesso sul mercato che talvolta, alcuni più di altri, incappano con facilità in questi inciampi logici.

A differenza dei chatbot comuni, le AI che fungono da ‘assistenti’ nella vita quotidiana dovranno sempre superare questo scoglio, perché le loro connessioni digitali implicano un altissimo grado di responsabilità nei confronti degli utenti.

Devono accendere la luce giusta, chiudere la porta giusta o essere sicuri dello stato del sistema di sicurezza”, ha sottolineato Rausch.

Speech to speech 

La tecnologia alla base di Alexa negli anni ha già fatto incredibili passi avanti. Le capacità vocali ed interpretative si sono molto allargate, soprattutto da quando Amazon ha iniziato a vagliare, per gli addestramenti, nuovi Large Language Model

Nel tempo, ne ha sintetizzato uno nuovo. La grande differenza rispetto a prima risiede nella comprensione dell’AI delle dinamiche del linguaggio. Se prima era necessario ogni volta ‘svegliarla’ con la parola magica Alexa e ripeterla all’occorrenza anche a distanza di breve tempo, ora sarà sufficiente lanciare il comando nell’attacco della conversazione. Dopodiché l’AI percepirà se lo scambio verbale prosegue oppure no, in maniera fluida e naturale.

Nell’Alexa tradizionale, l’impostazione robotica è causata dall’ampio numero di passaggi della sua tecnologia: al momento, dall’audio convertito in testo vengono estratte le parole chiave per essere comprese, poi si crea una risposta testuale che viene a sua volta inviata al reparto text-to-speech per formulare l’audio. 

Nella nuova versione di Alexa, tutti questi passaggi saranno unificati in un processo che Amazon definisce speech to speech, da parola a parola.

Un tool sempre più umano

L’AI comprenderà la natura e l’impostazione di una conversazione grazie a diversi fattori. Alexa percepirà se l’utente la sta osservando analizzando il livello direzionale della voce e in parte interpreterà convenzioni sociali nel tono e nei tempi di pronuncia. Il tutto rappresenta, in pratica, la prima visione di quello che Alexa sarebbe dovuta essere, ma che la tecnologia di dieci anni fa non permetteva ancora di raggiungere.

Se nel 2014, quando abbiamo lanciato quel dispositivo a forma di lattina di Pringles – ha detto Limp – vi avessimo detto che questo dispositivo sarebbe diventato una piattaforma di computing totalmente nuova e diversa da quella che conosciamo oggi, una piattaforma accessibile con la voce e non con la tastiera e il mouse, una piattaforma che milioni di persone nel mondo usano senza sapere che sistema operativo abbia, mi avreste preso per pazzo”.

Vantaggio competitivo

Durante l’incontro, Limp ha fatto qualche dimostrazione dell’aggiornamento dell’assistente vocale. Pur con qualche breve momento di incertezza, Alexa ha conversato con lui proprio come se avesse imparato a conoscerne alcuni lati personali, mostrando un approccio umanizzato inedito. Tecnicamente, manca qualche mese al lancio su vasta scala e potrebbero esserci ulteriori perfezionamenti. L’annuncio con largo anticipo prima dell’uscita effettiva ha il chiaro intento di creare un vantaggio competitivo e interesse sul mercato.

Nel corso dello stesso evento, Amazon ha presentato anche Echo 8 (il suo ultimo hub per la casa intelligente), una soundbar per televisori e una serie di nuove funzionalità di ricerca sempre basate sull’intelligenza artificiale nel suo servizio FireTV.


Ultime news


OpenAI cancella il lancio di o3 e indica una nuova rotta verso GPT-5

Sam Altman ha illustrato i prossimi passi di OpenAI, annunciando…

OpenAI cancella il lancio di o3 e indica una nuova rotta verso GPT-5
Alibaba collabora con Apple per funzionalità AI sugli iPhone: colosso cinese al +9% in borsa

Apple necessitava di un partner locale e l'ha trovato in…

Alibaba collabora con Apple per funzionalità AI sugli iPhone: colosso cinese al +9% in borsa
L’AI Act nelle imprese, la nostra intervista a Licia Garotti | AI Talks #16

Il 2 febbraio è entrato in vigore l’AI Act e…

L’AI Act nelle imprese, la nostra intervista a Licia Garotti | AI Talks #16
Elon Musk ritirerà la sua proposta d’acquisto se OpenAI resta (in parte) non-profit

La condizione per il ritiro dell'offerta di Elon Musk è…

Elon Musk ritirerà la sua proposta d’acquisto se OpenAI resta (in parte) non-profit
DeepSeek sta spingendo il mercato cinese dei chip

Il successo di DeepSeek favorirà i produttori cinesi di chip…

DeepSeek sta spingendo il mercato cinese dei chip

In Evidenza


Microsoft presenta l’AI L.A.B. 2025 a Milano

Ieri, Microsoft Italia ha presentato il programma AI L.A.B. 2025.…

Microsoft presenta l’AI L.A.B. 2025 a Milano
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
OpenAI: anche Mira Murati lascia

L'abbandono di Murati si aggiunge a quelli di Ilya Sutskever,…

OpenAI: anche Mira Murati lascia
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi
Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Il video di Faraday è stato visto oltre 2,6 milioni…

Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Privacy policy| Cookie policy| Cookie setting| © 2025