Gemini 2.0 Flash: l’AI di Google DeepMind che ridefinisce velocità e funzioni

Google DeepMind ha lanciato Gemini 2.0 Flash, un modello di intelligenza artificiale che segna un passo avanti decisivo nel campo dell'AI. Progettato per offrire bassa latenza e prestazioni elevate, Flash 2.0 si propone come il nuovo riferimento per sviluppatori e utenti grazie alle sue capacità multimodali avanzate. Il modello non solo raddoppia la velocità rispetto al suo predecessore, Gemini 1.5 Flash, ma introduce anche output multimodali nativi, tra cui la generazione di immagini e la sintesi vocale multilingue. (Multiplayer.it)

Ne parlano anche altri media

La sfida a colpi di innovazione tra le aziende che giocano nel campionato dell’intelligenza artificiale non rallenta mai. (Corriere della Sera)

Molte le novità messe sul piatto dall’azienda di Mountain View e, tra le più interessanti, ci sono sicuramente i vari Agenti AI che potranno usufruire di questa tecnologia, tra questi Project Astra che sarà disponibile già dal prossimo anno. (Libero Tecnologia)

Una volta c’era Google Documenti, la suite per l’ufficio interamente fruibile online. (IlSoftware.it)

Arriva Gemini 2.0, Mariner e Deep Research l’assistente di Google per la ricerca

Google ha reso disponibile un blog post dedicato, scritto dal CEO di Google DeepMind - Demis Hassabis - e dal CTO, Koray Kavukcuoglu. Il post recita, in traduzione: "Google DeepMind ha una lunga storia di utilizzo dei giochi per aiutare i modelli di intelligenza artificiale a migliorare il rispetto delle regole, la pianificazione e la logica. (Multiplayer.it)

Come ha annunciato Sundar Pichari – qui trovate la cronaca dell’annuncio sul Sole 24 Ore.com – il passaggio è dagli LLM tradizionali a modelli di AI che sono in grado di comprendere l’ambiente circostante, anticipare le esigenze e agire autonomamente sotto supervisione. (Il Sole 24 ORE)

Arriva Gemini 2.0 e promette di aiutarci ancora di più nella nostra vita, lavoro, “grazie ai nuovi progressi nella multimodalità, come l’output nativo di immagini e audio, e all’uso nativo degli strumenti, ci consentirà di costruire nuovi agenti AI che ci avvicineranno alla nostra visione di un assistente universale”, dice Sundar Pichai, amministratore delegato di Alphabet (Google) presentando la nuova versione del modello di IA. (Il Sole 24 ORE)