Noticias

Snowflake lanza Arctic

Un LLM abierto y de nivel empresarial

[29/04/2024] Snowflake, la compañía de Data Cloud, anunció Snowflake Arctic, un modelo de lenguaje grande (LLM) de última generación diseñado exclusivamente para ser el LLM de nivel empresarial más abierto del mercado. Según lo señalado en el comunicado de prensa, con su arquitectura única Mixture-of-Experts (MoE), Arctic ofrece inteligencia y eficiencia a escala.

"Snowflake Arctic está optimizado para cargas de trabajo empresariales complejas, superando varios benchmarks de la industria en la generación de código SQL, el seguimiento de instrucciones y más. Además, Snowflake está liberando las cargas de Arctic bajo una licencia Apache 2.0 y los detalles de la investigación que condujo a cómo se formó, estableciendo un nuevo estándar de apertura para la tecnología de IA empresarial. El Snowflake Arctic LLM es parte de la familia de modelos Snowflake Arctic, una familia de modelos construida por Snowflake que también incluye los mejores modelos prácticos de inserción de texto para casos de uso de recuperación, sostuvo Sridhar Ramaswamy, CEO de Snowflake.

Ahora, anotó el ejecutivo, con el lanzamiento de Arctic, Snowflake está ofreciendo un modelo potente abierto con una licencia Apache 2.0 que permite un uso personal, de investigación y comercial ilimitado. "Snowflake también proporciona plantillas de código, junto con opciones flexibles de inferencia y entrenamiento para que los usuarios puedan comenzar rápidamente a implementar y personalizar Arctic utilizando sus marcos preferidos. Estos incluirán NVIDIA Nim con NVIDIA TensorRT-LLM, vLLM y Hugging Face. Para su uso inmediato, Arctic está disponible para inferencia sin servidor en Snowflake Cortex, el servicio totalmente administrado de Snowflake que ofrece soluciones de aprendizaje automático e inteligencia artificial en Data Cloud. También estará disponible en Amazon Web Services (AWS), Microsoft Azure, Hugging Face, Lamini, el catálogo de APIs de NVIDIA, Perplexity, Together AI y más.

Arctic proporciona inteligencia con eficiencia

Ramaswamy comentó que el equipo de investigación de IA de Snowflake, que incluye una composición de investigadores e ingenieros de sistemas, tardó menos de tres meses y gastó aproximadamente una octava parte del costo de entrenamiento de modelos similares en la construcción de Arctic. "Entrenado utilizando las instancias P5 de Amazon Elastic Compute Cloud (Amazon EC2), Snowflake está estableciendo una nueva línea de base sobre la rapidez con la que se pueden entrenar los modelos abiertos de nivel empresarial de última generación, lo que en última instancia permite a los usuarios crear modelos personalizados rentables a escala.

Como parte de este esfuerzo estratégico, agregó el ejecutivo, el diseño diferenciado de Moe de Arctic mejora tanto los sistemas de entrenamiento como el rendimiento del modelo, con una composición de datos meticulosamente diseñada y centrada en las necesidades de la empresa. "Arctic también ofrece resultados de alta calidad, activando 17 de los 480 mil millones de parámetros a la vez para lograr una alta calidad con una eficiencia en los tokens sin precedentes. En un avance de eficiencia, Arctic activa aproximadamente un 50% menos de parámetros que DBRX y un 75% menos que Llama 3 durante la inferencia o el entrenamiento. Además, supera a los principales modelos abiertos como DBRX, Mixtral-8x7B y otros en la codificación (HumanEval +, MBPP+) y la generación de SQL (Spider), al tiempo que proporciona un rendimiento líder en la comprensión general del lenguaje (MMLU), sostuvo Ramaswamy.

El ejecutivo agregó que, además del LLM de Arctic, la familia de modelos Snowflake Arctic también incluye el recientemente anunciado Arctic embed, una familia de modelos de texto de última generación disponibles para la comunidad de código abierto bajo una licencia Apache 2.0. "La familia de cinco modelos está disponible en Hugging Face para su uso inmediato y pronto estará disponible como parte de la función de incorporación de Snowflake Cortex (en versión preliminar privada). Estos modelos de incorporación están optimizados para ofrecer un rendimiento de recuperación líder en aproximadamente un tercio del tamaño de los modelos comparables, lo que brinda a las organizaciones una solución potente y rentable al combinar conjuntos de datos patentados con los LLM como parte de un servicio de Retrieval Augmented Generation o búsqueda semántica.

Ramaswamy señaló, asimismo que, Snowflake también prioriza dar a los clientes acceso a los LLM más nuevos y potentes en Data Cloud, incluyendo las recientes incorporaciones de los modelos de inteligencia artificial Reka y Mistral.

Llegamos a ustedes gracias a:


BrandPosts Qué es BrandPost

Más »
×
Los artículos publicados en esta sección -BrandPosts- son escritos y editados por los proveedores o miembros de la comunidad TI. BrandPosts crea una oportunidad para que un patrocinador proporcione información y comentarios desde su punto de vista, directamente a la audiencia de CTO Perú. El equipo editorial de CTO Perú no participa en la redacción o edición de estos BrandPosts.

Primer contacto

Más »

Casos de éxito

Más »