Google Gemini ora vede lo schermo e tramite la telecamera
Articolo Precedente
Articolo Successivo
Pubblicità Amazon Alexa Plus è in dirittura di arrivo, Apple ha posticipato Siri con le funzioni AI più avanzate, mentre Google distanzia quasi tutti iniziando il rilascio delle funzioni AI video in tempo reale: quste permettono a Gemini di vedere per poter così rispondere alle domande contestuali. Si tratta di un passo importante per il passaggio dai chatbot agli agenti AI, con modelli sempre più in grado di comprendere il contesto, oltre che di svolgere compiti e operazioni complesse con il minimo o nessun intervento da parte dell’utente. (macitynet.it)
Su altri giornali
Google aggiorna Gemini 2.5: pensiero più logico, prestazioni migliori e capacità multimodali avanzate Al centro di Gemini 2.5 c’è un’ottimizzazione della struttura del pensiero. (Tech Princess)
Negli ultimi anni, l’intelligenza artificiale (AI) è diventata una presenza costante nelle nostre vite: ci aiuta a scrivere email, a trovare risposte rapide e persino a organizzare la giornata. Con l’ultima release, annunciata a marzo 2025, Gemini Live non è più solo un assistente vocale o testuale: ora può “vedere” il mondo attraverso le fotocamere dei nostri dispositivi, dai telefoni ai Pc, e interagire con ciò che osserva in tempo reale. (QUOTIDIANO NAZIONALE)
L’ultima novità in ordine di tempo per Big G è rappresentata dall’arrivo di Gemini 2.5 Pro, prima versione della famiglia di modelli AI della nuova serie 2.5. (Libero Tecnologia)
A detta di Google, Gemini 2.5 Pro supera i principali concorrenti, tra cui OpenAI, Anthropic, xAI e DeepSeek, in benchmark di riferimento legati a matematica, coding, comprensione testuale e ragionamento multimodale. (Multiplayer.it)
Google Gemini 2.5 è il modello di intelligenza artificiale più avanzato di “big G”. I modelli Gemini 2.5 sono definiti “modelli pensanti”, capaci di elaborare i propri pensieri prima di fornire una risposta, il che si traduce in una performance potenziata e una maggiore accuratezza. (AI4Business)
È un modello multimodale reasoning che supera o3-mini-high di OpenAI (DDay.it)