Reportajes y análisis

IA: El tamaño sí importa

Los grandes LLM tienen que usarse desde la nube, pero los nuevos SLM prometen ser tan menudos como para correr en una PC

[04/04/2024] La inteligencia artificial ya es parte de nuestro día a día. Desde que ChatGPT se lanzó en noviembre del 2022 -hace menos de un año y medio- las personas se animaron a tener su primer contacto personal con la inteligencia artificial; no eran científicos de datos ni especialistas en tecnología, eran simplemente personas con la suficiente curiosidad como para experimentar con una nueva tecnología. Muchas empresas -de todo tamaño- también siguieron ese camino.

La inteligencia artificial generativa -el tipo de inteligencia artificial al que pertenece ChatGPT- fue entonces el vehículo para que este tema -la IA- pase de las grandes corporaciones a empresas pequeñas y público interesado. Aun así, a pesar de su popularidad, la inteligencia artificial generativa no es algo que cualquiera pueda crear. Detrás de las respuestas que parecen escribirse mágicamente en las pantallas de computadoras personales, e incluso dispositivos móviles, se puede encontrar una enorme infraestructura que procesa miles de millones de datos para ofrecer una respuesta coherente a nuestras inquietudes.

Ese procesamiento tan grande solo puede ser ejecutado por organizaciones que desde hace mucho tiempo han invertido cientos o incluso miles de millones de dólares en investigación y equipamiento. Por ello, para que una empresa pueda acceder a esta tecnología tiene que acudir a la nube y a los proveedores que en ella operan; tratar de hacerlo on premises sería costoso e incluso infructuoso, dependiendo del objetivo que persigan. Los LLM (large language models) solo son para organizaciones gigantescas. Ahora, sin embargo, también se puede acudir a los SLM (small language models), modelos de menor tamaño que pueden ayudar con tareas más acotadas. Estamos ingresando a una era en la que tanto los LLM como los SLM trabajarán en conjunto para satisfacer las necesidades de las empresas.

La madurez local

El uso de la inteligencia artificial no es nuevo, si se toma en cuenta la inteligencia artificial clásica o pregenerativa, pero sí se encontraba acotado a organizaciones de una escala significativa.

Alex Le Bienvenu, director de Data & Artificial Intelligence para Latinoamérica.
Inteligencia artificial, Microsoft, Google, IBM

"En general, la inteligencia artificial en el Perú y en la región tenía ciertos bastiones que generalmente eran instituciones como bancos y servicios financieros; es decir, instituciones de un tamaño que no solo les permite tener un departamento de TI, sino que también podían tener un chief data officer y científicos de datos, explicó Alex Le Bienvenu, director de Data & Artificial Intelligence para Latinoamérica.

¿Qué hacían? Se hacía clustering de clientes, predicción de demanda, predicción de pérdida de clientes (customer churn), e inclusive modelos visuales. Un ejemplo de ello es una mina de estaño en el Perú -la mina más grande del mundo de estaño- que usó inteligencia artificial para, en base a las burbujas del agua, ver la posible contaminación del agua.

Esta inteligencia artificial es la previa a la inteligencia artificial generativa, y básicamente utilizaba modelos que eran muy especializados; es decir, hacían solo aquello para lo que había sido entrenados, y lo hacían bien.

Y, en general, la inteligencia artificial, en todas sus modalidades, ha prosperado en muchos casos de uso a tal punto que se estima que más de un tercio de todas las empresas del país la utilizan de alguna forma.

"De acuerdo con el estudio de Talento Digital en el Perú 2023, realizado por el Banco Interamericano de Desarrollo (BID), el Ministerio de Trabajo y Promoción del Empleo (MTPE) y MIDE Development, el 37% de las empresas en Perú recurren a la inteligencia artificial en sus procesos de producción. Este dato refleja un crecimiento constante en la adopción de la IA en el país, lo que sugiere que las empresas están reconociendo su valor y adaptándose a un mundo cada vez más digitalizado, detalló Diego Montoya, gerente general de Google Cloud en Perú.

Además, como se dijo anteriormente, la inteligencia artificial ya no es patrimonio de las clásicas organizaciones manufactureras o de investigación. Se ha esparcido hacia verticales tan diferentes que pueden encontrarse incluso en los deportes.

"A nivel global, un claro ejemplo es el Sevilla FC de España, que ahora usa IA de IBM para reclutamiento de jugadores. Un hito en una industria no tradicional, que está teniendo una transformación completamente disruptiva, sostuvo Cindy Sandoval, líder de Software para IBM Perú, Ecuador y Bolivia.

Pero ¿qué es lo que tienen en mente las organizaciones locales cuando desean ingresar al mundo de la inteligencia artificial, especialmente al de la inteligencia artificial generativa?

En general, resolver problemas o ser más productivos. Además, cuando las organizaciones 'piensan' en inteligencia artificial ahora lo hacen imaginando alguna solución similar a ChatGPT, y no es de extrañar. Hace unos años, si se reunía el directorio de una empresa para discutir la implementación de inteligencia artificial, era muy probable que los directores no conocieran nombres como aprendizaje automático, aprendizaje profundo o visión artificial.

Ahora al hablar de inteligencia artificial no solo conocen el nombre ChatGPT sino que se estima que entre el 30% a 40% de las personas lo han usado. Ese es el gran diferencial y la razón por la que las organizaciones desean utilizar la inteligencia artificial.

Pero también hay otro gran diferencial entre la inteligencia artificial clásica y la generativa: el tamaño.

El tamaño sí importa

El hardware base que se utilizó para entrenar a GPT 3 costó alrededor de 100 millones de dólares; y, realmente, las empresas que se pueden dar el 'lujo' de destinar esa cantidad de dinero a hardware son muy pocas. Si una empresa desea utilizar un modelo de inteligencia artificial generativa, lo más probable es que tenga que hacerlo desde la nube; desde esa perspectiva la inteligencia artificial se proporciona como un servicio, es decir, como un IAaaS.

Inteligencia artificial, Microsoft, Google, IBM
Diego Montoya, gerente general de Google Cloud en Perú.

Y al parecer, estos modelos seguirán en la nube. GPT 3 fue entrenado con 175 mil millones de parámetros y se rumorea que GPT 4 se entrenaría con 1,7 billones de parámetros. El tamaño y, por tanto, la capacidad de cómputo para su entrenamiento, es cada vez mayor. No existe un caso de uso que justifique que una empresa dedique la inversión que se necesitaría para alcanzar estas cifras. Lo mejor que pueden hacer es solicitar los servicios desde las nubes de los proveedores.

Y, de hecho, eso es lo que se está haciendo.

"En Google Cloud observamos que muchas organizaciones de diversas industrias han empezado a trasladar algunas de sus cargas de trabajo a la nube, y por ende a integrar IA en los procesos. Por mencionar algunas áreas, la salud y el retail son dos industrias que suelen beneficiarse ampliamente de esta tecnología en sus estrategias de negocios, sostuvo Montoya de Google Cloud.

La inteligencia artificial generativa ha tenido tal impacto en las organizaciones que muchas de ellas se acercan a los proveedores con el propósito de tener sus propios asistentes inteligentes, como ChatGPT, pero usando datos de sus propios negocios y con la seguridad de que esos datos no van a salir del control de la empresa.

Otro caso de uso importante para la IA generativa son los llamados RAG (retrieval augmented generation); es decir, soluciones que permiten que la IA lea los datos de una fuente y los usuarios puedan hacer preguntas sobre lo que se encuentra en esa fuente. Este tipo de solución se puede usar, por ejemplo, para pedir a la IA que lea un extenso contrato y resuma los puntos más importantes del documento. O también puede ayudar a un agente de ventas, al mostrarle las respuestas correctas que haga un potencial cliente sobre los procesos para adquirir un bien. Es como hablar con los datos.

Obviamente, todo el poder de cómputo para que los clientes corran un LLM ya se encuentra en la nube.

¿En qué otros casos se está utilizando la nube? Para comparar modelos. ¿Cuál modelo es mejor para lo que la compañía desee hacer? Simplemente, se prueban los modelos y se determina cuál de ellos arroja los mejores resultados para la empresa. Nuevamente, sería muy difícil implementar toda la infraestructura que se requiere para probar dos, tres, cuatro o cinco modelos. Lo mejor es usar la nube.

"Sí, tenemos clientes que nos pide infraestructura porque, uno, tienen sus modelos tradicionales de IA; o, dos, dicen 'quiero usar Llama 2' o 'quiero usar Mistral' y ¿por qué lo usan? Para comparar los modelos, detalló Le Bienvenu.

Todas las alternativas

Quizás GPT -de OpenAI- es el modelo que más se conoce gracias a su uso en ChatGPT, pero obviamente, no es el único. IBM, por ejemplo, tiene mucha experiencia con la inteligencia artificial clásica y ahora con la generativa.

Cindy Sandoval, líder de Software para IBM Perú, Ecuador y Bolivia.
Inteligencia artificial, Microsoft, IBM, Google

"IBM desarrolla la Inteligencia Artificial desde hace más de 70 años. Tenemos más de 40 mil implementaciones de IA en empresas y organizaciones a nivel mundial. Hoy, una de nuestras grandes apuestas es watsonx, la plataforma de IA Generativa de IBM que es empresarial as a service y que incluye tres componentes básicos, además de un conjunto de asistentes de IA, explicó Sandoval.

Y no hay que olvidar que Google lanzó a finales del año pasado Gemini, su más reciente LLM.

"Anunciamos recientemente nuestro siguiente capítulo en avances de IA, que llamamos 'la era Gemini', por nuestro último modelo de lenguaje multimodal que es el más avanzado y capaz en nuestra historia, declaró Montoya.

Tan solo en la nube de Microsoft se pueden encontrar más de 1400 modelos, de todos los tamaños, algunos muy grandes y otros más pequeños, como Phi-2, que forman parte de lo que se denomina small language models (SML) en oposición a los large language models (LLM).

Los SML son pequeños y, por tanto, no requieren de una inmensa infraestructura para entrenarlos y ejecutarlos. La promesa es que podrán incluso implementarse en dispositivos móviles y tener inteligencia artificial local. Obviamente, ello implica menos capacidades, y una gran especialización. En esta categoría se encuentra además de Phi-2 otros modelos como LLaMA 2 -de Meta-, DistilBERT u Orca 2, entre muchos otros.

Entonces, ¿todos los modelos tienen que correr en la nube? No, también podrán correrse en dispositivos, pero tendrán capacidades menores.

También es necesario recalcar que la presencia de estos nuevos modelos de inteligencia artificial generativa, ya sea grandes o pequeños, no implica el reemplazo de los modelos de inteligencia artificial clásica -por llamarla de alguna forma- en las organizaciones.

De hecho, un modelo de IA clásica puede funcionar mejor y ser mucho más costo efectivo que un LLM. Por ejemplo, si se desea reconocer las imágenes de un gato basta que en un modelo clásico se le muestren algunas decenas de fotos durante algunas decenas de minutos, en una PC. No sería efectivo entrenar a un LLM para hacer esta misma labor, sería costoso y tomaría tiempo y recursos en vano.

"Ese modelo en GPT4 lo va a ser peor que un modelo perfectamente entrenado para una tarea específica, lo va a hacer más lento y lo va a hacer mucho más costoso, enfatizó Le Bienvenu.

Los modelos clásicos pueden hacer estas labores simples mucho mejor que los modelos generativos, por lo que no se presume que vayan a desaparecer en el futuro cercano.

Todos estos avances, sin embargo, tienen que ir acompañados con un cambio en la organización, es decir, con un cambio en las personas, un proceso que incluso en ocasiones puede ser complicado.

"Para que la IA sea funcional debe estar acompañada de una transformación cultural, que plantea el aprendizaje de nuevas habilidades en la fuerza laboral existente y en las nuevas generaciones. Contar con personas preparadas, agiliza los resultados y la adopción de la tecnología, finaliza Sandoval.

Llegamos a ustedes gracias a:


BrandPosts Qué es BrandPost

Más »
×
Los artículos publicados en esta sección -BrandPosts- son escritos y editados por los proveedores o miembros de la comunidad TI. BrandPosts crea una oportunidad para que un patrocinador proporcione información y comentarios desde su punto de vista, directamente a la audiencia de CTO Perú. El equipo editorial de CTO Perú no participa en la redacción o edición de estos BrandPosts.

Primer contacto

Más »

Casos de éxito

Más »