Google Gemini ora vede lo schermo e tramite la telecamera

Google Gemini ora vede lo schermo e tramite la telecamera

Pubblicità Amazon Alexa Plus è in dirittura di arrivo, Apple ha posticipato Siri con le funzioni AI più avanzate, mentre Google distanzia quasi tutti iniziando il rilascio delle funzioni AI video in tempo reale: quste permettono a Gemini di vedere per poter così rispondere alle domande contestuali. Si tratta di un passo importante per il passaggio dai chatbot agli agenti AI, con modelli sempre più in grado di comprendere il contesto, oltre che di svolgere compiti e operazioni complesse con il minimo o nessun intervento da parte dell’utente. (macitynet.it)

Su altri giornali

Anziché limitarsi a classificare o prevedere, questi modelli sono in grado di analizzare le informazioni in maniera più approfondita, trarre conclusioni logiche, contestualizzare le sfumature e prendere decisioni più informate. (HDblog.it)

Google ha presentato Gemini 2.5, che l’azienda descrive come il suo modello AI più intelligente. La prima release 2.5 rilasciata dall’azienda è una versione sperimentale di 2.5 Pro, che secondo Big G è allo stato dell’arte in un’ampia gamma di benchmark e debutta al primo posto su LMArena con un margine significativo. (01net)

Al centro di Gemini 2.5 c’è un’ottimizzazione della struttura del pensiero. Google aggiorna Gemini 2.5: pensiero più logico, prestazioni migliori e capacità multimodali avanzate (Tech Princess)

Google inarrestabile: lanciato il modello Gemini 2.5 Pro. D’ora in poi l’IA di Google sarà solo con “capacità di pensiero”
Google inarrestabile: lanciato il modello Gemini 2.5 Pro. D’ora in poi l’IA di Google sarà solo con “capacità di pensiero”

A detta di Google, Gemini 2.5 Pro supera i principali concorrenti, tra cui OpenAI, Anthropic, xAI e DeepSeek, in benchmark di riferimento legati a matematica, coding, comprensione testuale e ragionamento multimodale. (Multiplayer.it)

Google Gemini 2.5 è il modello di intelligenza artificiale più avanzato di “big G”. I modelli Gemini 2.5 sono definiti “modelli pensanti”, capaci di elaborare i propri pensieri prima di fornire una risposta, il che si traduce in una performance potenziata e una maggiore accuratezza. (AI4Business)

È un modello multimodale reasoning che supera o3-mini-high di OpenAI (DDay.it)