L’Istituto dell’innovazione tecnologica degli EAU rivoluziona i modelli linguistici IA con una nuova architettura

Il Falcon Mamba 7B è il modello linguistico nello spazio degli stati (SSLM) open source numero uno al mondo in relazione alle prestazioni, secondo la verifica indipendente condotta da Hugging Face . Gli SSLM hanno un basso costo della memoria e non richiedono memoria aggiuntiva per generare blocchi di testo di qualsiasi lunghezza . Il Falcon Mamba 7B inoltre surclassa i tradizionali modelli di architettura basata su un trasformatore come il Meta Llama 3.1 8B e il Mistral 7B . Il nuovo modello rispecchia l’innovazione e l’approccio pionieristico di Abu Dhabi nella ricerca e sviluppo nel settore dell’IA .
Comunicato Precedente

next
Comunicato Successivo

next
ABU DHABI, Emirati Arabi Uniti, (informazione.it - comunicati stampa - information technology)

Minusdarkvine21#L’Istituto dell’innovazione tecnologica (TII, Technology Innovation Institute), uno dei principali centri di ricerca scientifica globali e pilastro della ricerca applicata condotta dal Consiglio della ricerca tecnologica avanzata (ATRC, Advanced Technology Research Council) di Abu Dhabi, ha lanciato, nell’ambito della serie Falcon, un nuovo modello linguistico di grandi dimensioni nello spazio degli stati open source, il Falcon Mamba 7B, che è risultato il numero uno al mondo in relazione alle prestazioni, secondo la verifica indipendente condotta da Hugging Face.

Questo comunicato stampa include contenuti multimediali. Visualizzare l’intero comunicato qui: https://www.businesswire.com/news/home/20240812695400/it/

L’Istituto dell’innovazione tecnologica degli EAU rivoluziona i modelli linguistici IA con una nuova architettura

UAE’s Technology Innovation Institute Revolutionizes AI Language Models With New Architecture (Photo: AETOSWire)

Come primo SSLM della serie Falcon, il Mamba 7B si distacca dai precedenti modelli Falcon – che utilizzano tutti un’architettura basata su un trasformatore – rappresentando un altro esempio ancora della ricerca pionieristica condotta dall’istituto e dei prodotti e strumenti innovativi che quest’ultimo mette a disposizione della comunità in formato open source.

Spiega Sua Eccellenza Faisal Al Bannai, Segretario generale della ATRC e Consulente per gli affari tecnologici avanzati e la ricerca strategica del Presidente degli EAU: “Il Falcon Mamba 7B è il quarto modello IA consecutivo sviluppato dal TII valutato al top nel settore, rafforzando il ruolo di Abu Dhabi come un polo globale per la ricerca e sviluppo nel settore dell’IA. Questo importante risultato evidenzia il fermo impegno degli EAU all’innovazione”.

Nel campo dei modelli con architettura basata su un trasformatore, il Falcon Mamba 7B surclassa sia i Meta Llama 3.1 8B e Llama 3 8B sia il Mistral 7B utilizzando i benchmark lanciati recentemente da Hugging Face, mentre per quanto riguarda gli altri SSLM, il Falcon Mamba 7B supera tutti gli altri modelli open source quando si utilizzano i vecchi benchmark e sarà il primo modello a figurare nella classifica stilata impiegando il nuovo, più rigoroso benchmark.

Aggiunge il Dr. Najwa Aaraj, Presidente TII: “L’Istituto dell’innovazione tecnologica continua a spingere i confini della tecnologia con la serie Falcon di modelli IA. Il Falcon Mamba 7B costituisce un’autentica soluzione pionieristica e apre la strada a innovazioni nell’IA che miglioreranno le capacità delle persone e la loro vita”.

I modelli nello spazio degli stati sono estremamente performanti nel comprendere situazioni complesse che evolvono nel corso del tempo, come un intero libro. Questo perché gli SSLM non richiedono memoria aggiuntiva per assimilare quantità così grandi di informazioni.

Invece i modelli basati su un trasformatore sono molto efficienti nel memorizzare e utilizzare informazioni che hanno elaborato in precedenza secondo una sequenza e ciò li rende molto efficienti per operazioni come la generazione di contenuti; tuttavia, poiché confrontano ogni parola con tutte le altre, richiedono una potenza di calcolo notevole.

Gli SSLM possono essere impiegati in vari campi – stime, previsioni e attività di controllo. Analogamente ai modelli con architettura basata su un trasformatore, sono eccellenti anche in operazioni di elaborazione di linguaggi naturali e possono essere applicati alla traduzione automatica, al riepilogo di testi, alla visione artificiale e all'elaborazione audio.

Conclude il Dr. Hakim Hacid, facente funzione di Ricercatore capo dell’Unità intercentro IA presso il TII: “Mentre lanciamo il Falcon Mamba 7B, sono orgoglioso dell’ecosistema collaborativo del TII che ha consentito di svilupparlo. Questa innovativo modello rappresenta un significativo passo avanti, che ispirerà nuove prospettive e faciliterà ancora di più la ricerca nel campo dei sistemi intelligenti. Noi del TII stiamo spingendo i confini sia degli SSLM che dei modelli basati su un trasformatore per promuovere ulteriormente l’innovazione nel settore dell’IA generativa”.

Gli LLM Falcon sono stati scaricati oltre 45 milioni di volte, il che ne dimostra lo straordinario successo. Il Falcon Mamba 7B sarà lanciato ai sensi della licenza TII Falcon 2.0, la licenza all’uso del software basata su Apache 2.0 che include una norma di uso accettabile che promuove l’utilizzo responsabile dell’IA. Maggiori informazioni sul nuovo modello sono reperibili su FalconLLM.TII.ae.

*Fonte:AETOSWire

Il testo originale del presente annuncio, redatto nella lingua di partenza, è la versione ufficiale che fa fede. Le traduzioni sono offerte unicamente per comodità del lettore e devono rinviare al testo in lingua originale, che è l'unico giuridicamente valido.

Copyright Business Wire 2024

Jennifer Dewan, Direttrice senior comunicazioni
[email protected]

Per maggiori informazioni
Ufficio Stampa
 Business Wire (Leggi tutti i comunicati)
40 East 52nd Street, 14th Floor
10022 New York Stati Uniti