Google annuncia Gemini 2.0 e spiega quali sono le funzioni dedicate ai videogiochi
Articolo Precedente
Articolo Successivo
Google ha reso disponibile un blog post dedicato, scritto dal CEO di Google DeepMind - Demis Hassabis - e dal CTO, Koray Kavukcuoglu. Google ha appena annunciato Gemini 2.0 e, nell'ambito delle novità di oggi, ha rivelato di aver esplorato il modo in cui gli agenti di intelligenza artificiale costruiti con Gemini 2.0 possono comprendere le regole dei videogiochi per aiutarvi. Le funzioni gaming di Gemini 2.0 Il post recita, in traduzione: "Google DeepMind ha una lunga storia di utilizzo dei giochi per aiutare i modelli di intelligenza artificiale a migliorare il rispetto delle regole, la pianificazione e la logica. (Multiplayer.it)
Ne parlano anche altri giornali
Google ha annunciato ufficialmente l’arrivo di Gemini 2.0, la nuova famiglia di LLM che rappresentano un netto miglioramento rispetto alla precedente generazione ferma a Gemini 1.5. (Libero Tecnologia)
La tecnologia sarà integrata nei prodotti Google, come la Ricerca e AI Overview, con un’attenzione particolare alla sicurezza attraverso test e analisi dei rischi, ma non è ancora accessibile in Italia. (Fastweb Plus)
A distanza di un giorno dal lancio targato OpenAi di Sora, lo strumento di Ai generativa che consente di creare video a partire da input, Google annuncia il rilascio del primo modello della famiglia Gemini 2.0: una versione sperimentale di Gemini 2.0 Flash, il modello di base con bassa latenza e prestazioni migliorate. (Corriere della Sera)
Arriva Gemini 2.0 e promette di aiutarci ancora di più nella nostra vita, lavoro, “grazie ai nuovi progressi nella multimodalità, come l’output nativo di immagini e audio, e all’uso nativo degli strumenti, ci consentirà di costruire nuovi agenti AI che ci avvicineranno alla nostra visione di un assistente universale”, dice Sundar Pichai, amministratore delegato di Alphabet (Google) presentando la nuova versione del modello di IA. (Il Sole 24 ORE)
Google entra nell'”Agentic Era”. Come ha annunciato Sundar Pichari – qui trovate la cronaca dell’annuncio sul Sole 24 Ore.com – il passaggio è dagli LLM tradizionali a modelli di AI che sono in grado di comprendere l’ambiente circostante, anticipare le esigenze e agire autonomamente sotto supervisione. (Il Sole 24 ORE)
Il modello non solo raddoppia la velocità rispetto al suo predecessore, Gemini 1.5 Flash, ma introduce anche output multimodali nativi, tra cui la generazione di immagini e la sintesi vocale multilingue. (Multiplayer.it)