Information Technology
Falcon 2: el Technology Innovation Institute de los EAU lanza una nueva serie de modelos de IA que superan a la nueva Llama 3 de Meta
El Technology Innovation Institute (TII), centro líder mundial de investigación científica y pilar de investigación aplicada del Advanced Technology Research Council (ATRC) de Abu Dabi, lanzó hoy una segunda iteración de su renombrado modelo de lenguaje masivo (LLM): Falcon 2. Dentro de esta serie, se presentaron dos versiones revolucionarias: Falcon 2 11B, un modelo LLM más eficaz y accesible entrenado con 5,5 billones de tokens y 11.000 millones de parámetros, y Falcon 2 11B VLM, que se distingue por sus funciones de modelo visión-lenguaje (VLM), que permiten convertir sin problemas entradas visuales en salidas textuales. Aunque ambos modelos son multilingües, Falcon 2 11B VLM se destaca por ser el primer modelo multimodal del TII y el único actualmente en el mercado de primera línea que cuenta con esta función de conversión de imagen a texto, lo que representa un avance significativo en la innovación de la IA.
Este comunicado de prensa trata sobre multimedia. Ver la noticia completa aquí: https://www.businesswire.com/news/home/20240513919166/es/
Falcon Image Caption Generator (Photo: AETOSWire)
Probado frente a varios modelos de IA destacados de su clase entre los modelos preentrenados, Falcon 2 11B supera el rendimiento del recién lanzado Llama 3 de Meta con 8.000 millones de parámetros (8B), y rinde al mismo nivel que Gemma 7B de Google en el primer puesto (Falcon 2 11B: 64,28 v. 7B: 64,29), según ha verificado de forma independiente Hugging Face, una plataforma con sede en EE. UU. que alberga una herramienta de evaluación objetiva y una tabla de clasificación mundial para los LLM abiertos. Y lo que es más importante, tanto Falcon 2 11B como Falcon 11B VLM son de código abierto, lo que permite a los desarrolladores de todo el mundo acceder a ellos sin restricciones. En un futuro próximo, está previsto ampliar los modelos Falcon 2 de última generación, con una nueva gama de tamaños. Estos modelos se mejorarán aún más con funciones avanzadas de aprendizaje automático como "Mixture of Experts" (MoE)), cuyo objetivo es elevar su rendimiento a niveles aún más sofisticados.
Todos los modelos de inteligencia artificial del TII lanzados hasta la fecha se han situado sistemáticamente en los primeros puestos a nivel mundial, como los LLM de código abierto más potentes. Los nuevos modelos Falcon 2 11B, reducidos y versátiles, están preparados para proporcionar al TII una mayor adopción en el mercado, en el mundo de la IA generativa en constante evolución.
Los modelos Falcon 2 11B, equipados con funciones multilingües, abordan a la perfección tareas en inglés, francés, español, alemán, portugués y otros idiomas, lo que enriquece su versatilidad y aumenta su eficacia en diversos escenarios. Falcon 2 11B VLM, un modelo visión-lenguaje, puede identificar e interpretar imágenes y elementos visuales del entorno, lo que proporciona una amplia gama de aplicaciones en sectores como salud, finanzas, e-commerce, educación y jurídico. Estas aplicaciones abarcan desde la gestión de documentos, el archivo digital y la indexación contextual hasta el apoyo a personas con deficiencias visuales. Además, estos modelos pueden ejecutarse eficientemente en una sola unidad de procesamiento gráfico (GPU), lo que los hace altamente escalables y fáciles de implementar e integrar en infraestructuras más ligeras como ordenadores portátiles y otros dispositivos.
S.E. Faisal Al Bannai, secretario general de la ATRC y Asesor de Asuntos de Investigación Estratégica y Tecnología Avanzada del presidente de los EAU, expresó: "Con el lanzamiento del Falcon 2 11B, introdujimos el primer modelo de la serie Falcon 2. Mientras el modelo Falcon 2 11B ha demostrado un rendimiento excepcional, con él reafirmamos nuestro compromiso con el movimiento de código abierto y con la Falcon Foundation. Con otros modelos multimodales que pronto llegarán al mercado en varios tamaños, nuestro objetivo es garantizar que los desarrolladores y las entidades que valoran su privacidad tengan acceso a uno de los mejores modelos de IA para hacer posible su transición hacia la IA".
Con respecto al modelo, el Dr. Hakim Hacid, director ejecutivo e investigador en jefe en funciones de la AI Cross-Center Unit del TII, declaró: "La IA evoluciona continuamente y los desarrolladores están reconociendo las innumerables ventajas de modelos más pequeños y eficientes. Además de reducir los requisitos de potencia de procesamiento y cumplir los criterios de sostenibilidad, estos modelos ofrecen una mayor flexibilidad, integrándose a la perfección en la infraestructura de IA periférica, la próxima mega tendencia. Por otra parte, las funciones de visión-lenguaje de Falcon 2 abren nuevos horizontes para la accesibilidad en IA, permitiendo a los usuarios interacciones transformadoras de imagen a texto".
Con la versatilidad de Falcon 2 11B, el TII también se planteó trabajar en innovaciones GenAI más interesantes. Entre ellas se encuentra la adopción de un nuevo tipo de capacidad de aprendizaje automático conocida como la mencionada "‘Mixture of Experts". Este método consiste en amalgamar redes más pequeñas con especializaciones distintas, lo que garantiza que los dominios con más conocimientos colaboren para ofrecer respuestas altamente sofisticadas y personalizadas, casi como tener un equipo de ayudantes inteligentes que saben cada uno algo distinto y trabajan juntos para predecir o tomar decisiones cuando es necesario. Este enfoque no sólo mejora la precisión, sino que también acelera la toma de decisiones, allanando el camino para sistemas de IA más inteligentes y eficientes.
Falcon 2 11B tiene licencia TII Falcon License 2.0, la licencia de software permisiva basada en Apache 2.0 que incluye una política de uso aceptable que promueve el uso responsable de la IA. Más información sobre el nuevo modelo en FalconLLM.TII.ae.
Fuente:AETOSWire
El texto original en el idioma fuente de este comunicado es la versión oficial autorizada. Las traducciones solo se suministran como adaptación y deben cotejarse con el texto en el idioma fuente, que es la única versión del texto que tendrá un efecto legal.
Vea la versión original en businesswire.com: https://www.businesswire.com/news/home/20240513919166/es/
Copyright Business Wire 2024Jennifer Dewan, directora senior de Comunicaciones
Jennifer.dewan@tii.ae