Anthropic lancia Claude 3.5 per sfidare ChatGPT e Google nell’intelligenza artificiale

Anthropic lancia Claude 3.5 per sfidare ChatGPT e Google nell’intelligenza artificiale

Nel mondo mai fermo dell’intelligenza artificiale generativa, l’ultimo passo l’ha mosso Anthropic, start up americana (fondata dagli italo-americani Dario e Daniela Amodei), ritenuta dagli analisti il principale il principale concorrente di OpenAI e Google nell’AI closed-source. Nelle scorse ore, infatti, Anthropic (che gode di una partnership miliardaria con Amazon) ha presentato l’ultima generazione della sua famiglia di modelli linguistici di grandi dimensioni: Claude 3.5 Sonnet. (Il Sole 24 ORE)

Se ne è parlato anche su altri giornali

Cosa cambia con Claude 3. (TuttoTech.net)

Se si scrive del codice, la sua esecuzione verrà mostrata in una finestra separata dalla chat. (DDay.it)

Questo modello è già disponibile per gli utenti di Claude sia su web che su iOS e sarà presto accessibile anche agli sviluppatori. Anthropic, difatti, ha recentemente lanciato il suo nuovo modello, denominato Claude 3.5 Sonnet, che promette prestazioni al pari, o superiori rispetto a quelle di GPT-4o di OpenAI, e di Gemini di Google, in una vasta gamma di compiti. (Tom's Hardware Italia)

Arriva Claude 3.5: il guanto di sfida alla concorrenza delle Ai generative

Il 20 giugno 2024 Anthropic ha presentato Claude 3.5 Sonnet, il primo della nuova e ancora più evoluta famiglia di modelli basati sull’intelligenza artificiale generativa. Come abbiamo visto nell’articolo citato in precedenza, Claude Artifacts è una funzionalità che segna la transizione da un’intelligenza artificiale conversazionale a un ambiente di lavoro collaborativo. (IlSoftware.it)

Anthropic, la società fondata dai fratelli Amodei e su cui ha investito in particolare Amazon, ha da poco portato in Europa il suo chatbot Claude che può vantare performance che risultano a volte addirittura migliori di quelle di ChatGpt. (Corriere della Sera)

Già all’epoca la versione più evoluta, Opus, secondo gli sviluppatori, dimostrava «Livelli quasi umani di comprensione e fluidità in compiti complessi, superando i colleghi nella maggior parte dei benchmark di valutazione usati per valutare i sistemi di intelligenza artificiale». (Il Sole 24 ORE)