Gemini di Google ora 'vede' lo schermo e il mondo dalla fotocamera e risponde in tempo reale

Articolo Precedente

precedente
Articolo Successivo

successivo

Questa novità arriva a quasi un anno di distanza dalla prima dimostrazione del "Project Astra", la tecnologia che alimenta queste funzioni. Google ha iniziato a distribuire nuove funzionalità di intelligenza artificiale per Gemini Live. L'assistente è ora in grado di "vedere" lo schermo o attraverso la fotocamera dello smartphone e rispondere alle domande in tempo reale. Le nuove capacità di Gemini Live per capire il mondo Si tratta di una delle due funzionalità annunciate da Google all'inizio di marzo, che "avrebbero iniziato a essere distribuite agli abbonati a Gemini Advanced come parte del piano Google One AI Premium" nel corso del mese. (Multiplayer.it)

Ne parlano anche altre testate

Come promesso da Google, Gemini inizia a vedere il mondo attraverso la fotocamera del telefono e ai interagire con l’utente. (DDay.it)

In Breve (TL;DR) Google ha iniziato a distribuire Project Astra su Gemini Live, una nuova funzionalità che consente all’AI di interagire con lo schermo dello smartphone, analizzando ciò che l’utente sta visualizzando o inquadrando con la fotocamera. (Fastweb Plus)

Gemini di Google ora 'vede' lo schermo e il mondo dalla fotocamera e risponde in tempo reale