[13/05/2024] Acaba de realizarse la Red Hat Summit 2024, el evento anual que la corporación tecnológica realiza para mostrar a sus clientes, socios y la comunidad open source. En esta edición, realizada en Denver, Colorado, la firma presentó una serie de novedades, siendo la principal -la que se realzó en la keynote principal- la unión del open source con la inteligencia artificial.
El tema de la inteligencia artificial, especialmente la generativa, ha permeado en todos los sectores y, por ende, era de esperar que uno de los anuncios tendría mucho que ver con esta tendencia. Y lo hizo. Matt Hicks, presidente y CEO de la compañía, explicó la forma en que Red Hat va a colaborar de ahora en adelante con el desarrollo e implementación de modelos de inteligencia artificial generativa. Lo va a hacer a través de Red Hat Enterprise Linux AI (RHEL AI), una plataforma de modelos fundacionales que permite a los usuarios desarrollar, probar e implementar modelos de IA generativa (GenAI) de manera más ?integrada.
Esto lo va a hacer a través de herramientas como InstructLab, que permitirá a todos contribuir y entrenar a los LLM; y el ofrecimiento como open source de la familia de modelos LLM Granite.
Por supuesto, además de este anuncio central se realizaron otros que también se ponen de relieve en la siguiente nota.
El encuentro de la IA y el Open Source
La primera keynote del evento fue la desarrollada por Mat Hicks, presidente y CEO de Red Hat. Y lo primero que hizo en ella fue, justamente, poner en contexto a los participantes.
"La cumbre de este año va a tratar sobre la intersección entre el open source y la inteligencia artificial, y el increíble impacto que se da cuando combinamos las dos”, adelantó el ejecutivo.
Hicks también llamó la atención del público sobre el espectacular avance que se ha logrado en este campo. De él dijo que lo que antes se lograba con un modelo de un billón de parámetros, ahora se puede replicar en modelos mucho más pequeños; y que lo que antes requería de un hardware impresionante, ahora se puede obtener usando una computadora portátil. Y lo que se encuentra en el centro de todos estos cambios, de toda esta innovación, es el open source y la academia.
Efectivamente, sostuvo el ejecutivo, es gracias a que la academia ha podido adoptar el open source que ahora puede no solo probar los conceptos en papel sino en el software. "Ahora, las capacidades de la inteligencia artificial están siendo desarrolladas por académicos usando el open source. Y eso significa que el potencial que se puede lograr en el mundo ya no se encuentra solo limitado a los desarrolladores de software”.
Igualmente, señaló que la inteligencia artificial no será la creación de un solo proveedor. De ello se tienen ejemplos en Meta que ingresó al campo del open source con su modelo Llama, y Mistral que se ha expandido gracias a que ha lanzado un modelo con Licencia Apache.
"Y hoy estoy muy orgulloso de anunciar que Red Hat va a contribuir con el siguiente eslabón en esta cadena de contribuciones al open source”, dijo el ejecutivo.
Se refería al anuncio de InstructLab, una nueva tecnología que hace que sea sencillo para todos -no solo para los científicos de datos- contribuir con los LLM y entrenarlos. A propósito, Lab significa Large-Scale Alignment for Chatbots.
"El funcionamiento de InstructLab se basa en dos conceptos: Conocimientos y Habilidades. Los conocimientos son como aquellas cosas que se tienen que memorizar; por ejemplo, el historial de casos de soporte de una compañía. Por otro lado, las habilidades representan lo que uno pueda hacer con ese conocimiento; por ejemplo, la forma en que un representante de servicio al cliente interactúa o resuelve problemas con ese conocimiento. Con unos cuantos ejemplos combinados con el conocimiento uno puede enseñar a un modelo fundacional una nueva habilidad”, anotó Hicks.
Ahora, explicó el ejecutivo, esta técnica no resuelve todos los problemas con la inteligencia artificial, pero sí cree que resuelve algo realmente importante para la clase de problemas que uno puede estructurar de esta forma: uno puede enseñar a un modelo fundacional una nueva habilidad con pocos ejemplos.
"Se usa la generación de datos sintéticos en tiempo real para extrapolar en base a estas habilidades, y obtener un resultado con cinco ejemplos y no con cinco mil. Y con la capacidad de enseñar a los modelos más chicos las habilidades más relevantes para el caso de uso de una firma mejora, los costos de entrenamiento se reducen al igual que los costos de inferencia, además se amplían las opciones de implementación”, sostuvo Hicks.
El InstructLab no fue el único anuncio que realizó Hicks. El ejecutivo también anunció que IBM Research se unía con Red Hat para ofrecer en modo open source la familia Granite de modelos de lenguaje y código, mediante una licencia Apache.
"Si desea contribuir con sus conocimientos y habilidades, nosotros los pondremos en un modelo fundacional para usted y para el mundo; y lo haremos en cuestión de días, no de meses. Nuestra meta es expandir el ecosistema open source alrededor de la inteligencia artificial”, afirmó el ejecutivo.
Luego de la presencia de Hicks se sucedieron otros ejecutivos que profundizaron en las técnicas de InstructLab. y en la relación de Red Hat con otras firmas de tecnología.
Por supuesto, también se realizaron otros anuncios dentro de los cuales se encuentran entre los más relevantes los que se describen a continuación.
Red Hat Lightspeed: Uno de los anuncios que se realizaron durante esta cumbre fue la ampliación de Red Hat Lightspeed. Ahora esta herramienta se encontrará en todas sus plataformas, llevando inteligencia artificial de nivel empresarial a toda la cartera de nube híbrida de Red Hat. Así Red Hat OpenShift Lightspeed y Red Hat Enterprise Linux Lightspeed ofrecerán capacidades inteligentes de procesamiento de lenguaje natural diseñadas para hacer que las plataformas de aplicaciones nativas de la nube y Linux de nivel empresarial de Red Hat sean más fáciles de usar para los principiantes y más eficientes para los profesionales experimentados. A través de la integración de la IA generativa (GenAI), Red Hat busca mejorar la productividad y la eficiencia de los equipos que utilizan estas plataformas.
"Presentada por primera vez en Red Hat Ansible Automation Platform, Red Hat Lightspeed está diseñada para ayudar a combatir las brechas en habilidades y la complejidad en toda la industria de la TI empresarial a medida que crece la adopción de la nube híbrida; esto permite a los usuarios ser más precisos y eficientes, al tiempo que libera a los equipos de TI de labores rutinarias para dedicarse más a la innovación. Con la integración de Red Hat Lightspeed en las plataformas principales de Red Hat, los usuarios se beneficiarán de la capacidad de aplicar contextualmente el vasto conocimiento de Red Hat en el uso de tecnologías de código abierto en entornos de misión crítica a sus situaciones específicas”, señaló Ashesh Badani, vicepresidente senior y chief product officer de Red Hat, en el comunicado de prensa respectivo.
Red Hat OpenShift AI: Otra de las novedades presentadas durante la cumbre fueron los avances en Red Hat OpenShift AI, su plataforma de inteligencia artificial y aprendizaje automático híbrida y abierta, que permite a las empresas crear y entregar aplicaciones listas para inteligencia artificial, a escala, en nubes híbridas.
Badani anotó que esta nueva versión de la plataforma, la Red Hat OpenShift AI 2.9, ofrece:
- Entrega de modelos en el perímetro. Esta amplía la implementación de modelos de inteligencia artificial en ubicaciones remotas usando OpenShift de un solo nodo. Proporciona capacidades de inferencia en entornos con recursos limitados, acceso intermitente a la red o aislados. Esta característica proporciona a las organizaciones una experiencia operativa escalable y coherente desde el núcleo hasta la nube y el perímetro, e incluye observabilidad lista para usar.
- Mejoras en el servicio de modelos. Ahora se cuenta con la capacidad de usar múltiples servidores de modelos para admitir tanto modelos predictivos como de inteligencia artificial generativa, incluyendo soporte para KServe. La mejora en el servicio de modelos permite a los usuarios ejecutar inteligencia artificial predictiva y generativa en una sola plataforma para múltiples casos de uso, lo que reduce los costos y simplifica las operaciones. Esto permite la publicación de modelos listos para usar para los LLM y simplifica el flujo de trabajo del usuario circundante.
- Cargas de trabajo distribuidas con Ray. Se usa CodeFlare y KubeRay, que utiliza varios nodos de clúster para incrementar la rapidez y la eficiencia del procesamiento de datos y el entrenamiento de modelos. Ray es un marco para acelerar las cargas de trabajo de inteligencia artificial, y KubeRay ayuda a administrar estas cargas de trabajo en Kubernetes. CodeFlare es fundamental para las capacidades de carga de trabajo distribuidas de Red Hat OpenShift AI, ya que proporciona un marco fácil de usar que ayuda a simplificar la orquestación y el monitoreo de tareas.
- Mejoras en el desarrollo de modelos. La mejora se realiza a través de áreas de trabajo para proyectos e imágenes adicionales del workbench que proporcionan a los científicos de datos la flexibilidad para usar IDEs y kits de herramientas, como VS Code y RStudio.
- Visualizaciones del monitoreo de los modelos. Para las métricas operativas y de desempeño, lo cual mejora la observabilidad del desempeño de los modelos de inteligencia artificial.
- Nuevos perfiles de acelerador. Permiten a los administradores configurar diferentes tipos de aceleradores de hardware disponibles para el desarrollo de modelos y los flujos de trabajo del servicio de modelos. Esto proporciona un acceso de usuario sencillo y de autoservicio al tipo de acelerador adecuado para una carga de trabajo específica.
Disponibilidad general de Red Hat OpenShift en Oracle Cloud Infrastructure: Durante la cumbre también se anunció la disponibilidad general de Red Hat OpenShift en Oracle Cloud Infrastructure (OCI) Compute Virtual Machines (VMs). "Red Hat OpenShift es la plataforma de aplicaciones de nube híbrida con tecnología de Kubernetes para diseñar, crear e implementar aplicaciones nativas de la nube. Al ofrecer una nube distribuida de 69 regiones, OCI puede ejecutar Red Hat OpenShift en el modelo de ubicación y operaciones que mejor satisfaga las necesidades de los clientes en cuanto a cumplimiento normativo, rendimiento y rentabilidad”, señaló Badani.
El ejecutivo agregó que la combinación de la certificación de Red Hat Enterprise Linux y Red Hat OpenShift brinda a los clientes la confianza para instalar, migrar y ejecutar cargas de trabajo de Red Hat OpenShift en OCI, con el respaldo de acuerdos de soporte transparentes y existentes entre Red Hat y Oracle. Red Hat OpenShift en OCI es compatible con las instalaciones gestionadas por el cliente que utilizan configuraciones validadas de Red Hat OpenShift Platform Plus, Red Hat OpenShift Container Platform y Red Hat OpenShift Kubernetes Engine.
"Los clientes ahora pueden ampliar su ecosistema de Red Hat OpenShift para incluir instalaciones en OCI, gestionadas desde su portal de Red Hat. Se puede elegir entre varios métodos de instalación, incluyendo el instalador asistido de Red Hat OpenShift, la línea de comandos y el basado en agentes, que permite la instalación en entornos aislados. Oracle proporciona el software Container Storage Interface (CSI) que permite la integración del almacenamiento de OCI con Red Hat OpenShift, y el software Cloud Control Manager (CCM) que permite la interoperabilidad de API entre OCI y la plataforma Red Hat OpenShift”, indicó Badani.
Optimización de Portworx: Dentro de los anuncios conjuntos también se hizo pública la optimización de Portworx. Pure Storage (compañía que ofrece tecnología y servicios de almacenamiento de datos) y Red Hat anunciaron la optimización de Portworx by Pure Storage en Red Hat OpenShift para lograr una integración optimizada y proporcionar a las empresas un camino más fluido hacia la virtualización.
Entre los beneficios de esta optimización se encuentran:
- Un time to market más corto con mejor eficiencia operativa. Las empresas pueden mejorar el tiempo de producción con opciones de autoservicio para que los equipos de desarrollo migren rápidamente las máquinas virtuales y apliquen prácticas operativas y de desarrollo nativas de la nube a las máquinas virtuales, lo que acelera el tiempo de creación de valor. "Además, Portworx y Red Hat ofrecen opciones más rentables para que los clientes acorten el tiempo de puesta en marcha y las operaciones del día 2, lo que resulta en una notable reducción de costos, estimada en 63%, que abarca los gastos de infraestructura, licencias y suscripciones en comparación con las otras alternativas”, comentó Murli Thirumale, gerente general de Portworx by Pure Storage, en el comunicado de prensa conjunto.
- Simplificación y mayor consistencia en el desarrollo y la gestión. El ejecutivo indicó que, juntos, Portworx y Red Hat ayudan a simplificar la gestión de las máquinas virtuales y los contenedores mediante el uso de una vista unificada y un conjunto más coherente de herramientas de gestión del almacenamiento, datos y aplicaciones, lo que crea una mejor alineación entre los administradores de virtualización y los equipos de ingeniería de plataformas.
- Flexibilidad para implementar máquinas virtuales y contenedores en cualquier lugar. Finalmente, Thirumale sostuvo que las empresas pueden modernizar sus aplicaciones basadas en máquinas virtuales beneficiándose de los principios modernos de gestión de almacenamiento, datos y aplicaciones mediante la integración de Portworx con Red Hat OpenShift. "Esto permite a las empresas una mayor flexibilidad para implementar aplicaciones de VM y en contenedores en cualquier infraestructura local, en la nube, híbrida o multinube, al tiempo que mantienen servicios de datos y almacenamiento consistentes”.
Franca Cavassa y Jose Antonio Trujillo, CTOPerú