[27/09/2024] La inteligencia artificial ha permeado en todas las industrias y en todas las herramientas tecnológicas; por ello no es de sorprender que la firma más grande de open source haya mostrado recientemente la forma en que la inteligencia artificial se ha posicionado al interior de su portafolio de productos. Red Hat ha señalado que en este último año ha trabajado en algunos temas, siendo uno de los principales el de la inteligencia artificial.
Herramientas tan conocidas y clásicas como Red Hat Enterprise Linux (RHEL) u OpenShift tienen ahora un enfoque IA; además, la organización ha diseñado hojas de ruta para que las empresas puedan incorporar la inteligencia artificial dentro de sus procesos. Y si por un lado Red Hat está incorporando lo más novedoso en la industria, por el otro también está ofreciendo herramientas tan conocidas y usadas como la virtualización en un entorno de incremento de precios.
Estos anuncios se realizaron como parte de su reciente Red Hat Summit en el Perú, el primero de un conjunto de eventos que se están realizando en la región y en los que se destacan, a su vez, los anuncios realizados en Estados Unidos.
La IA dentro del open source
"Red Hat aporta, trabajando en el open source, en el mundo comunitario, les entrega un producto estable, con seguridad y escalable, a eso nos dedicamos. Ahora la inteligencia artificial es parte de nuestro portafolio de productos”, indicó Ezequiel Picardo, country manager para Chile & Perú de Red Hat, al inicio del evento.
En realidad, la inteligencia artificial es uno de los cinco temas en los que Red Hat ha venido trabajando durante el último año. Junto con la IA, la compañía también se ha estado concentrando en la automatización crítica, la productividad para los desarrolladores, la seguridad y el edge computing
"Hemos visto un cambio de los modelos propietarios a modelos más abiertos. Y nosotros creemos que tenemos un rol aquí. Una responsabilidad importante en traer una inteligencia artificial más abierta, más transparente, más confiable”, sostuvo Thiago Araki, director senior de technology sales & GTM para Red Hat Latinoamérica.
Las organizaciones de todo el mundo desean incorporar la inteligencia artificial dentro de sus operaciones; sin embargo, el problema para cumplir con este buen deseo es que la mayoría (87%) de los trabajos de los científicos de datos no llegan a producción, son experimentos interesantes, pero no avanzan. ¿Por qué? Faltan procesos, faltan acceso a los datos y principalmente falta colaboración. La colaboración es importante y cuando se habla de colaboración se está hablando de que las distintas áreas de la empresa -en el tema de la inteligencia artificial- todavía no están trabajando juntos, no se están comunicando bien.
¿Cómo se puede hacer frente a esto?
"Lo que creemos es que lo que va a pasar es que, así como hoy tenemos comunidades de código, distintos códigos de software, creemos que esas mismas comunidades se van a ir extendiendo hacia la inteligencia artificial y hacia los modelos”, señaló Carlos Estay, associate principal AI specialist solution architect de Red Hat Latam.
La contribución de Red Hat en esta visión se está dando a través de una serie de colaboraciones y lanzamientos que buscan, como se dijo, democratizar la inteligencia artificial, hacer que llegue a más organizaciones.
Una de esas colaboraciones se está dando a través de un trabajo conjunto entre Red Hat e IBM Research; juntas, ambas organizaciones han anunciado Granite, una familia de LLMs (large language models) que se encuentran disponibles a través de los servicios de nube de Watson x.
Lo que hace atractivo a estos modelos -de acuerdo con Estay- es que, por lo general, cuando una empresa comienza a trabajar con un LLM no se sabe cómo fueron entrenados, no se sabe y no se tiene acceso al origen de los datos con que se trabajaron. y no se sabe cómo aprendieron a trabajar con el lenguaje natural.
"Los LLM de Granite, por el contrario, tienen todos esos datos; es decir, se puede saber cómo fueron entrenados, cómo fueron creados y los datos con los que fueron creados. Además, no solo se tiene acceso a los datos, sino que incluso se puede acceder a los pesos y sesgos que pueden tener estos modelos. La idea es democratizar la inteligencia artificial y que todo sea lo más transparente posible. Los modelos se pueden conseguir tanto en GitHub como en Hugging Face para poder revisarlos”, sostuvo el ejecutivo.
De hecho, en una gráfica que mostraron los ejecutivos de Red Hat (Araki y Estay) se puede apreciar como los modelos de Granite superan a otros modelos, como Mistral, Llama o Gemma, en una serie de parámetros como la generación de código, explicación del código y corrección del código. Además, son modelos 'pequeños' de 4 o 5 gigas, frente a los 20 o más de los otros modelos.
"Para decirlo de forma sencilla, Red Hat está permitiendo que ustedes puedan ejecutar IA a su manera, con una base de modelos abiertos que se pueden personalizar”, agregó Araki.
¿Cómo se integra con las herramientas existentes?
Los ejecutivos señalaron que una de las integraciones es con el clásico RHEL, ahora se ofrece un RHEL AI. Este integra los modelos de lenguaje y código Granite, herramientas de AI open source, Linux optimizado para AI e Instruct Lab (una herramienta para entrenar y contribuir con los LLM). RHEL AI se puede llevar a cualquier lado, es decir, al centro de datos o al borde.
Otra de las integraciones es OpenShift AI, una plataforma de AI que se puede utilizar tanto para casos de uso de IA generativa como de IA predictiva. Ayuda a acelerar el paso a producción de aplicaciones y modelos de IA, y proporciona una plataforma de confianza, la elección de modelos de IA y hardware y operaciones consistentes.
Además, se cuenta con una línea denominada Lightspeed. Ya se anunció Ansible Lightspeed que permite generar automatizaciones de manera rápida y se espera que para fines de este año se lance OpenShift Lighspeed y RHEL Lightspeed.
El camino hacia la IA
Con las herramientas ya en oferta es necesario que la empresa determine la forma en que va a implementar la inteligencia artificial para que pueda generar productos en el plazo más corto posible. Desafortunadamente, como señaló Daniel Romero, regional sales manager de Sales & Consulting Services para SOLA de Red Hat, más del 50% de las empresas encuestadas declaran que se demoran entre 7 a 12 meses poner en producción una solución basada en IA. Y otro 26% declara que demoran incluso más de un año.
¿Cómo enfrentar este nuevo problema? Ofreciendo distintas formas de enfocar el problema, anotó el ejecutivo.
La primera de ellas es IA Labs Residency. "Este formato está dirigido a las empresas que recién se están adentrando en el uso de la inteligencia artificial, y requieren de una guía de todo el proceso hasta llegar al MVP. El segundo caso es el del IA Acelerator; una vez que ya se tiene un MVP se sientan las bases fundacionales de la explotación que va a permitir acelerar el uso de estos modelos, aquí es donde se puede utilizar la opción de OpenShift AI”, comentó Romero.
Añadió que el tercer elemento es la expansión mediante el uso de MLOps Foundation. "Una vez que ya se tiene las primeras cargas productivas se necesita empezar a organizar la cultura, los procesos y los modelos automatizados de despliegue de tal manera que ya se vuelva parte de la operación de la organización. Red Hat tiene el modelo de trabajo MLOps donde el desarrollo, entrenamiento y puesta en producción de los modelos se conjugan -rompiendo silos de trabajo- en un único equipo”.
Finalmente, se busca la evolución mediante el AI Incubator. "Aquí Red Hat acompaña a los clientes en el uso de inteligencia artificial para el desarrollo de modelos generativos. Es un nivel superlativo de producción de valor al negocio”, sostuvo el ejecutivo.
La virtualización
Si por un lado se mostró lo más novedoso en tecnología, por otro se produjo un recordatorio de una tecnología que ya todos conocían desde hace mucho tiempo: la virtualización. Esta tecnología ha llamado nuevamente la atención por la tendencia global al alza en su precio.
Se habla de incrementos significativos, no de 20% o 50% sino de subidas que pueden llegar a los 10X. ¿Cuál es la alternativa que ofrece Red Hat?
"OpenShift Virtualization ya está siendo usado por muchos de nuestros clientes en banca, en telco, en gobierno. Lo mejor de todo es que OpenShift Virtualization viene dentro de OpenShift. No es un costo adicional”, señaló Andrea Castellanos, solution architect manager para SoLA de Red Hat.
El uso de esta herramienta significa que sus usuarios ya no tienen una capa de virtualización tradicional, solo tienen OpenShift y eso implica que solo se va a tener una sola gestión, operaciones consistentes en todo TI y rendimiento y estabilidad ya que se va a poder controlar todo desde una sola plataforma, añadió el ejecutivo.
¿Qué tan conveniente es para las empresas? Patricio Lancellotti, jefe de Operaciones TI Universidad Finis Terrae de Chile, describió su experiencia al respecto. Pasó de unas herramientas de virtualización de VMware a OpenShift Virtualization, ya que la primera empresa le había comunicado en abril de este año que incrementaría el costo de sus licencias en 300%.
"Quedé en shock, tenía un presupuesto de 20% más para el tema. Vi que a nivel mundial había muchos casos que ya se estaban comenzando a publicar y comencé a hacer un estudio de cómo superar esto”, señaló el ejecutivo que contaba su caso a la audiencia.
El fruto de esa investigación no solo fue el paso a Red Hat sino también una nota en LinkedIn que se llamó "OpenShift: una solución frente al aumento de costos de licenciamiento”, en la que describe el paso a paso de su cambio.
El caso de la universidad chilena no fue el único. También estuvieron presentes dos ejecutivos del BCP que también relataron su experiencia con la herramienta.
"Desde el 2018 optamos por OpenShift para que sea nuestro gestor de toda la plataforma de contenedores del banco a nivel on premise, y nos ayude con la integración de otras plataformas. En esa época teniendo canales digitales cada vez más grandes y creciendo en número nos hizo sentido tener esa capa de integración que nos ayuda a comunicar las aplicaciones con los sistemas que ya tenemos en el banco”, indicó Iván Contreras, líder de cloud center of excellence del BCP.
Los beneficios que se obtuvieron por el uso de esta plataforma fue poder conectar el mundo de desarrollo con el de operaciones; es decir, se obtuvieron beneficios del lado de eficiencia en costos operacionales y en hacer que la infraestructura realmente se use al máximo ya que la contenedorización permite, de alguna manera, correr más procesos. Y en el frente de desarrollo, los desarrolladores empezaron a obtener resultados con respecto a tiempos de entrega y abstracción de la complejidad, es decir, ya no se preocupaban tanto por la capa de infraestructura sino realmente ponían el foco en generar valor desarrollando funcionalidades de negocio, contó el ejecutivo.
"Cuando llega OpenShift en realidad la comparación era lo que enfrenta cualquier empresa cuando cambia ese paradigma; es decir, salir de entornos legados, de stacks de tecnologías legadas, a un entorno un poco más flexible y dinámico”, finalizó Juan Manuel Chávez, product owner - serverless & containers del cloud center of excellence del BCP.
Jose Antonio Trujillo, CTOPerú