“Gemini, cosa sta bene con questi jeans?”. Grazie alle nuove funzionalità, l’AI di Google risponderà a ciò che vede sullo schermo.
Google sta aggiornando il suo Gemini, introducendo la possibilità di porre domande non solo in forma testuale, ma anche utilizzando video live e contenuti presenti sullo schermo del dispositivo, letti ed elaborati in tempo reale dall’assistente AI del colosso di Mountain View.
Queste funzioni multimodali, Gemini Live with Video e Gemini Live with Screenshare, consentono di integrare informazioni visive real-time nell’input dell’intelligenza artificiale, offrendo in output risposte mirate basate sul contenuto mostrato.
“Gemini, cosa sta bene con questi jeans?”
In un esempio presentato da Google al Mobile World Congress di Barcellona, per esempio, Gemini suggerisce in stile conversazionale cosa abbinare a un paio di jeans presenti sullo schermo e consiglia gradazioni di colore per un vaso da smaltare, ripreso nell’ambiente con la fotocamera del dispositivo.
Gemini, а где на этом сайте отключается подписка?
— Rozetked (@rozetked) March 4, 2025
Google представила Screenshare для Gemini. Теперь с ИИ-ассистентом можно будет поделиться демонстрацией экрана и задать ему разные вопросы о том, что видит сам пользователь.https://t.co/ZDxNwSzNSQ pic.twitter.com/6YdsCxtntK
L’aggiornamento – riportato da TechCrunch, ma già anticipato dalla società negli ultimi mesi – si configura come un ulteriore sviluppo nel percorso di Google per rendere l’interazione con l’AI più flessibile e funzionale. Le nuove possibilità offerte da Gemini, che dovrebbero essere lanciate entro la fine di marzo, possono trovare applicazioni in vari settori, dalla risoluzione di problemi tecnici alla consultazione di dati visuali.