[09/09/2024] Red Hat anunció la disponibilidad general de Red Hat Enterprise Linux (RHEL) AI en toda la nube híbrida. Según lo señalado en el comunicado de prensa, RHEL AI es la plataforma de modelos base de Red Hat que permite a los usuarios desarrollar, probar y ejecutar modelos de IA generativa (GenAI) de manera más sencilla para potenciar las aplicaciones empresariales.
"Esta plataforma fusiona la familia de modelos de lenguaje de gran tamaño (LLM) Granite, con licencia open source, con las herramientas de alineación de modelos InstructLab basadas en la metodología Large-scale Alignment for chatBots (LAB), empaquetadas como una imagen de RHEL de inicio optimizada para implementaciones de servidores individuales en toda la nube híbrida”, sostuvo Joe Fernandes, vicepresidente y gerente general de Foundation Model Platforms de Red Hat.
El ejecutivo anotó que RHEL AI facilita que los expertos, ya no solo los científicos de datos, contribuyan a un modelo de GenAI diseñado a medida en la nube híbrida, al mismo tiempo que permite a las organizaciones de TI escalar estos modelos para producción a través de Red Hat OpenShift AI.
Según Red Hat, durante la próxima década, la pila de la TI empresarial incluirá modelos de IA más pequeños, eficientes y específicamente diseñados a medida a la par de las aplicaciones nativas de la nube. "Pero, para lograrlo, la GenAI debe ser más accesible y estar más disponible en términos de costos, colaboradores y hasta dónde puede ejecutarse en la nube híbrida. Durante décadas, las comunidades open source han ayudado a resolver desafíos semejantes planteados por problemas de software complejos a través de la colaboración de diversos grupos de usuarios. Adoptar un enfoque similar podría reducir los obstáculos para la adopción efectiva de la GenAI”, anotó Fernandes.
El enfoque open source frente a la GenAI
Según el ejecutivo, estos son los desafíos que RHEL AI pretende abordar: lograr que la GenAI sea más accesible, más eficiente y más flexible para los CIO y las organizaciones de TI empresariales en toda la nube híbrida. Fernandes aseguró que RHEL AI ayuda a:
- Potenciar la innovación de la GenAI mediante modelos Granite con licencia open source de grado empresarial, alineados con una amplia variedad de casos de uso de la GenAI.
- Optimizar la alineación de modelos de GenAI con los requisitos empresariales por medio de las herramientas de InstructLab, lo que permite que los expertos y los desarrolladores dentro de una organización contribuyan a sus modelos con habilidades y conocimientos específicos aun sin ser muy avezados en ciencia de datos.
- Entrenar e implementar la GenAI en cualquier lugar de la nube híbrida al proporcionar todas las herramientas necesarias para ajustar e implementar modelos para servidores de producción dondequiera que estén los datos asociados. RHEL AI también ofrece una vía de acceso a Red Hat OpenShift AI para entrenar, ajustar y proveer estos modelos a escala utilizando las mismas herramientas y conceptos.
- RHEL AI también está respaldado por los beneficios de una suscripción a Red Hat, que incluye la distribución de productos empresariales, soporte de producción 24x7, soporte de ciclo de vida de modelo extendido y protecciones legales Open Source Assurance.
RHEL AI abarca toda la nube híbrida
Fernandes anotó que, a fin de contribuir a las estrategias de IA de producción, es fundamental poder llevar una plataforma de modelos base más coherente adonde se encuentran los datos de una organización. "RHEL AI, como extensión del portfolio de nube híbrida de Red Hat, abarcará casi todos los entornos empresariales que se pueden imaginar, desde centros de datos locales y entornos de edge hasta la nube pública. Esto significa que RHEL AI estará disponible directamente de Red Hat, de los partners fabricantes de equipos originales (OEM) de Red Hat, y podrá ejecutarse en los proveedores de nube más grandes del mundo, como Amazon Web Services (AWS), Google Cloud Platform (GCP), IBM Cloud y Microsoft Azure. Esto permite que los desarrolladores y las organizaciones de TI aprovechen el poder de los recursos informáticos de los hiperescaladores para crear conceptos de IA innovadores con RHEL AI”.
Disponibilidad
RHEL AI ya tiene disponibilidad general a través del Portal de Clientes de Red Hat para ejecutarse en modo local, o para cargarlo en AWS e IBM Cloud como oferta BYOS (traiga su propia suscripción). Para el cuarto trimestre del 2024, se prevé la disponibilidad de una oferta BYOS en Azure y GCP y, en el 2025, se espera que RHEL AI esté disponible en IBM Cloud como servicio.
En los próximos meses, Red Hat planea expandir aún más la apertura de la nube de RHEL AI y los partners OEM, para lo cual brindará aún más opciones en entornos de nube híbrida.
Franca Cavassa, CTOPerú