[25/04/2024] Amazon Web Services anunció nuevas innovaciones de Amazon Bedrock que aseguran ofrecen a los clientes una forma más fácil, rápida y segura de desarrollar aplicaciones y experiencias avanzadas de inteligencia artificial generativa (IA).
"Decenas de miles de clientes ya han seleccionado Amazon Bedrock como base para su estrategia de IA generativa porque les brinda acceso a la más amplia selección de modelos de base (FM) como AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, Stability AI y Amazon, junto con las capacidades y la seguridad empresarial que necesitan para crear e implementar rápidamente aplicaciones de IA generativa. Los modelos de Amazon Bedrock se ofrecen como un servicio completamente administrado, por lo que los clientes no tienen que preocuparse por la infraestructura subyacente, lo que garantiza que sus aplicaciones funcionen con una implementación, escalabilidad y optimización continuas sin problemas. Los anuncios de hoy permiten a los clientes ejecutar sus propios modelos completamente administrados en Amazon Bedrock, simplifican la búsqueda del mejor modelo para su caso de uso, facilitan la aplicación de medidas de seguridad a las aplicaciones de IA generativa y les brindan aún más opciones de modelos”, sostuvo el doctor Swami Sivasubramanian, vicepresidente de IA y datos de AWS, en el comunicado de prensa.
El ejecutivo anotó que la nueva capacidad de importación de modelos personalizados ayuda a las organizaciones a incorporar sus propios modelos personalizados a Amazon Bedrock, lo que reduce la sobrecarga operativa y acelera el desarrollo de aplicaciones.
"Además de tener acceso a los modelos más potentes del mundo en Amazon Bedrock, desde AI21 Labs, Amazon, Anthropic y Cohere, hasta Meta, Mistral AI y Stability AI, los clientes de los sectores sanitario, de servicios financieros y otros sectores ponen cada vez más a trabajar sus propios datos personalizando modelos disponibles públicamente para sus casos de uso específicos de dominio. Cuando las organizaciones desean crear estos modelos con sus datos patentados, suelen recurrir a servicios como Amazon SageMaker, que ofrece capacidades para entrenar un modelo desde cero o realizar una personalización avanzada en modelos disponibles públicamente, como Llama, Mistral y Flan-T5”, indicó Sivasubramanian.
El ejecutivo agregó que, con la importación de modelos personalizados de Amazon Bedrock, las organizaciones ahora pueden importar y obtener acceso a sus propios modelos personalizados como una interfaz de programación de aplicaciones (API) completamente administrada en Amazon Bedrock. "Con solo unos clics, los clientes pueden tomar modelos que personalizaron en Amazon SageMaker u otras herramientas, y agregarlos fácilmente a Amazon Bedrock. Una vez que pasan por un proceso de validación automatizado, pueden acceder sin problemas a su modelo personalizado, como cualquier otro en Amazon Bedrock, obteniendo los mismos beneficios que obtienen hoy, incluida la escalabilidad y las capacidades para proteger sus aplicaciones, la adhesión a los principios de IA responsables, la capacidad de ampliar la base de conocimientos de un modelo con la generación aumentada de recuperación (RAG), crear fácilmente agentes para completar tareas de varios pasos y llevar a cabo ajustes para seguir enseñando y refinando modelos, sin necesidad de administrar la infraestructura subyacente”.
Con esta nueva capacidad, anotó Sivasubramanian, AWS facilita a las organizaciones la elección de una combinación de modelos de Amazon Bedrock y sus propios modelos personalizados a través de la misma API. E”n la actualidad, la importación de modelos personalizados de Amazon Bedrock está disponible en versión preliminar y es compatible con tres de las arquitecturas de modelos abiertos más populares, Flan-T5, Llama y Mistral, y tiene previsto añadir más en el futuro”.
El ejecutivo añadió que, la evaluación de modelos, que ya está disponible para el público en general, es la forma más rápida para que las organizaciones analicen y comparen modelos en Amazon Bedrock, lo que reduce el tiempo de semanas a horas dedicadas a evaluar modelos para que puedan comercializar nuevas aplicaciones y experiencias con mayor rapidez. "Los clientes pueden comenzar rápidamente seleccionando criterios de evaluación predefinidos (por ejemplo, precisión y solidez) y cargando su propio conjunto de datos o biblioteca de solicitudes, o seleccionando entre los recursos integrados disponibles públicamente. En el caso de los criterios subjetivos o el contenido que requiere un juicio matizado, Amazon Bedrock facilita a los clientes la incorporación de personas al flujo de trabajo para evaluar las respuestas del modelo en función de métricas específicas del caso de uso (por ejemplo, relevancia, estilo y voz de marca). Una vez finalizado el proceso de configuración, Amazon Bedrock ejecuta evaluaciones y genera un informe para que los clientes puedan comprender fácilmente el rendimiento del modelo en función de sus criterios clave y seleccionar rápidamente los mejores modelos para sus casos de uso”.
Guardrails for Amazon Bedrock
Sivasubramanian explicó que, para que la IA generativa sea omnipresente en todas las industrias, las organizaciones deben implementarla de manera segura, confiable y responsable. "Muchos modelos utilizan controles integrados para filtrar contenido no deseado y dañino, pero la mayoría de los clientes quieren adaptar aún más sus aplicaciones de IA generativa para que las respuestas sigan siendo relevantes, se alineen con las políticas de la empresa y se adhieran a los principios de IA responsable. Guardrails for Amazon Bedrock, que ya está disponible para el público en general, ofrece protección de seguridad, además de las capacidades nativas de los FM, lo que ayuda a los clientes a bloquear hasta el 85% del contenido dañino. Guardrails es una solución que permite a los clientes disponer de medidas de seguridad integradas y personalizadas en una única oferta, y funciona con todos los modelos de lenguaje (LLM) de gran tamaño de Amazon Bedrock, así como con modelos ajustados. Para crear una barrera de protección, los clientes simplemente proporcionan una descripción en lenguaje natural que define los temas denegados dentro del contexto de su aplicación. Los clientes también pueden configurar umbrales para filtrar en áreas como el discurso de odio, los insultos, el lenguaje sexualizado, la inyección rápida y la violencia, así como filtros para eliminar cualquier información personal y confidencial, blasfemias o palabras bloqueadas específicas. Guardrails for Amazon Bedrock permite a los clientes innovar de forma rápida y segura al proporcionar una experiencia de usuario coherente y estandarizar los controles de seguridad y privacidad en todas las aplicaciones de IA generativa”, explicó el ejecutivo.
Más opciones de modelos
AWS también presentamó Amazon Titan Text Embeddings V2, la disponibilidad general de Titan Image Generator y los modelos más recientes de Cohere y Meta.
"Los modelos de Amazon Titan, exclusivos de Amazon Bedrock, son creados y entrenados previamente por AWS en conjuntos de datos grandes y diversos para una variedad de casos de uso, con soporte integrado para el uso responsable de la IA. En la actualidad, Amazon Bedrock continúa haciendo crecer la familia Amazon Titan, lo que brinda a los clientes aún más opciones y flexibilidad”, comentó Sivasubramanian.
Sobre Amazon Titan Text Embeddings V2, el ejecutivo sostuvo que está optimizado para trabajar con casos de uso de RAG, es ideal para una variedad de tareas, como la recuperación de información, los chatbots de preguntas y respuestas y las recomendaciones personalizadas. "Para aumentar las respuestas de FM con datos adicionales, muchas organizaciones recurren a RAG, una técnica popular de personalización de modelos en la que el FM se conecta a una fuente de conocimiento a la que puede hacer referencia para aumentar sus respuestas. Sin embargo, la ejecución de estas operaciones puede requerir un uso intensivo de recursos informáticos y de almacenamiento. El nuevo modelo Amazon Titan Text Embeddings V2 reduce los costos de almacenamiento e informática, a la vez que aumenta la precisión”.
Ahora, disponible de forma general, Sivasubramanian indicó que, Amazon Titan Image Generator ayuda a los clientes de sectores como la publicidad, el comercio electrónico y los medios de comunicación y el entretenimiento a producir imágenes con calidad de estudio o a mejorar y editar imágenes existentes, a bajo costo, utilizando indicaciones en lenguaje natural. "Amazon Titan Image Generator también aplica una marca de agua invisible a todas las imágenes que crea, lo que ayuda a identificar imágenes generadas por IA para promover el desarrollo seguro y transparente de la tecnología de IA y ayudar a reducir la propagación de la desinformación. El modelo también puede comprobar la existencia de una marca de agua, lo que ayuda a los clientes a confirmar si Amazon Titan Image Generator generó una imagen”.
AWS anotó que también están disponibles hoy en Amazon Bedrock los FM Meta Llama 3 y próximamente los modelos Command R y Command R+ de Cohere. "Llama 3 está diseñado para que desarrolladores, investigadores y empresas construyan, experimenten y escalen de manera responsable sus ideas de IA generativa. Los modelos Llama 3 son una colección de LLM preentrenados y perfeccionados por la instrucción que admiten una amplia gama de casos de uso. Son especialmente adecuados para el resumen y la clasificación de textos, el análisis de sentimientos, la traducción de idiomas y la generación de código. Los modelos Command R y Command R+ de Cohere son FM de última generación que los clientes pueden utilizar para crear aplicaciones de IA generativa de nivel empresarial con capacidades avanzadas de RAG, en 10 idiomas, para respaldar sus operaciones comerciales globales”, finalizó Sivasubramanian.
Franca Cavassa, CTOPerú