Noticias

Red Hat actualiza Red Hat AI

Para impulsar la IA empresarial a través de la nube híbrida

[28/03/2025] Red Hat anunció las últimas actualizaciones de Red Hat AI, su cartera de productos y servicios diseñados para ayudar a acelerar el desarrollo y la implementación de soluciones de IA a través de la nube híbrida. Según lo señalado en el comunicado de prensa, Red Hat AI proporciona una plataforma de IA empresarial para el entrenamiento y la inferencia de modelos que ofrece una mayor eficiencia, una experiencia simplificada y la flexibilidad para desplegarse en cualquier lugar a través de un entorno de nube híbrida.

"Red Hat sabe que las empresas necesitarán formas de gestionar el creciente costo de sus despliegues de IA generativa, a medida que lleven más casos de uso a producción y se ejecuten a escala. También necesitan abordar el desafío de integrar modelos de IA con datos empresariales privados y ser capaces de desplegar estos modelos dondequiera que vivan sus datos. Red Hat AI ayuda a las empresas a hacer frente a estos retos permitiéndoles aprovechar modelos más eficientes, creados específicamente, entrenados en sus datos y que permiten una inferencia flexible en entornos locales, en la nube y en el perímetro», Joe Fernandes, vicepresidente y director general de la unidad de negocio de IA de Red Hat.

El ejecutivo añadió que, incluso cuando las empresas buscan formas de reducir los costos de implantación de grandes modelos lingüísticos (LLM) a escala para abordar un número creciente de casos de uso, siguen enfrentándose al reto de integrar esos modelos con los datos de su propiedad que impulsan esos casos de uso y, al mismo tiempo, ser capaces de acceder a estos datos dondequiera que existan, ya sea en un centro de datos, en nubes públicas o incluso en el perímetro.

"Abarcando tanto Red Hat OpenShift AI como Red Hat Enterprise Linux AI (RHEL AI), Red Hat AI aborda estas preocupaciones proporcionando una plataforma de IA empresarial que permite a los usuarios adoptar modelos más eficientes y optimizados, ajustados a los datos específicos del negocio y que luego pueden desplegarse a través de la nube híbrida tanto para el entrenamiento como para la inferencia en una amplia gama de arquitecturas de computación acelerada, anotó Fernandes.

Red Hat OpenShift AI

El ejecutivo sostuvo que Red Hat OpenShift AI proporciona una plataforma de IA completa para gestionar los ciclos de vida de la IA predictiva y generativa (GenAI) en toda la nube híbrida, incluidas las capacidades de operaciones de aprendizaje automático (MLOps) y LLMOps. "La plataforma proporciona la funcionalidad para crear modelos predictivos y ajustar modelos de IA generativa, junto con herramientas para simplificar la gestión de modelos de IA, desde la ciencia de datos y las canalizaciones de modelos y la supervisión de modelos hasta la gobernanza y mucho más.

Fernandes agregó que Red Hat OpenShift AI 2.18, la última versión de la plataforma, añade nuevas actualizaciones y capacidades para apoyar el objetivo de Red Hat AI de llevar modelos de IA mejor optimizados y más eficientes a la nube híbrida. Las características clave incluyen:

  • Servicio distribuido: A través del servidor de inferencia vLLM, el servicio distribuido permite a los equipos de TI dividir el servicio de modelos entre varias unidades de procesamiento gráfico (GPU). "Esto ayuda a reducir la carga de trabajo de un único servidor, acelera el entrenamiento y el ajuste fino y hace un uso más eficiente de los recursos informáticos, a la vez que ayuda a distribuir los servicios entre los nodos para los modelos de IA, explicó el ejecutivo.
  • Una experiencia de ajuste de modelos de extremo a extremo: Utilizando InstructLab y Red Hat OpenShift AI data science pipelines, esta nueva función ayuda a simplificar el ajuste fino de los LLM, haciéndolos más escalables, eficientes y auditables en grandes entornos de producción, al tiempo que ofrece capacidad de gestión a través del panel de Red Hat OpenShift AI.
  • AI Guardrails: Según Fernandes, Red Hat OpenShift AI 2.18 ayuda a mejorar la precisión, el rendimiento, la latencia y la transparencia de LLM a través de una vista previa tecnológica de AI Guardrails para supervisar y salvaguardar mejor tanto las interacciones de entrada del usuario como las salidas del modelo. "AI Guardrails ofrece puntos de detección adicionales para ayudar a los equipos de TI a identificar y mitigar el discurso potencialmente odioso, abusivo o profano, la información de identificación personal, la información competitiva u otros datos limitados por las políticas corporativas.
  • Evaluación de modelos: Utilizando el componente de evaluación de modelos lingüísticos (lm-eval) para proporcionar información importante sobre la calidad general del modelo, la evaluación del modelo permite a los científicos de datos comparar el rendimiento de sus LLM en una variedad de tareas, desde el razonamiento lógico y matemático hasta el lenguaje natural adversarial y más, lo que en última instancia ayuda a crear modelos de IA más efectivos, receptivos y personalizados.

RHEL AI

RHEL AI, que forma parte de la cartera de productos de IA de Red Hat, es una plataforma de modelos básica que permite desarrollar, probar y ejecutar LLM de forma más coherente para potenciar las aplicaciones empresariales. "RHEL AI proporciona a los clientes Granite LLM y herramientas de alineación de modelos InstructLab que se empaquetan como una imagen de servidor Red Hat Enterprise Linux de arranque y se pueden implementar en la nube híbrida, anotó el ejecutivo.

Lanzado en febrero del 2025, Fernandes comentó que se han añadido varias mejoras nuevas a RHEL 1.4, entre ellas:

  • Soporte del modelo Granite 3.1 8B para la última incorporación a la familia de modelos Granite con licencia de código abierto. El modelo añade soporte multilingüe para inferencia y personalización de taxonomía/conocimiento (vista previa para desarrolladores) junto con una ventana de contexto de 128k para mejorar los resultados de resumen y las tareas de generación de recuperación aumentada (RAG).
  • Una nueva interfaz gráfica de usuario para las contribuciones de habilidades y conocimientos, disponible como vista previa para desarrolladores, para simplificar la ingestión y fragmentación de datos, así como la forma en que los usuarios añaden sus propias habilidades y contribuciones a un modelo de IA.
  • Document Knowledge-bench (DK-bench) para comparar más fácilmente los modelos de IA ajustados con datos relevantes y privados con el rendimiento de los mismos modelos base sin ajustar.

Llegamos a ustedes gracias a:


BrandPosts Qué es BrandPost

Más »
×
Los artículos publicados en esta sección -BrandPosts- son escritos y editados por los proveedores o miembros de la comunidad TI. BrandPosts crea una oportunidad para que un patrocinador proporcione información y comentarios desde su punto de vista, directamente a la audiencia de CTOPerú. El equipo editorial de CTOPerú no participa en la redacción o edición de estos BrandPosts.

Primer contacto

Más »

Recursos

Más »