
[21(01/2025] Google anunció la disponibilidad general del motor RAG de Vertex AI, un servicio administrado que ayuda a crear e implementar implementaciones de RAG con los datos y métodos de los usuarios.
"Cerrar la brecha entre las impresionantes demostraciones de modelos y el rendimiento en el mundo real es crucial para implementar con éxito la IA generativa en las empresas. A pesar de las increíbles capacidades de la IA generativa para las empresas, esta brecha percibida puede ser una barrera para que muchos desarrolladores y empresas "produzcan" la IA. Aquí es donde la generación aumentada de recuperación (RAG) se vuelve innegociable: fortalece sus aplicaciones empresariales al generar confianza en sus resultados de IA”, comentó Crispín Vélez, líder de Vertex AI de Google Cloud, en una entrada de blog.
El ejecutivo señaló que con el nuevo motor Vertex AI RAG podrá:
- Adaptarse a cualquier arquitectura: Permite eligir los modelos, las bases de datos vectoriales y las fuentes de datos que mejor se adapten a su caso de uso. "Esta flexibilidad garantiza que RAG Engine se adapte a su infraestructura existente en lugar de obligarle a adaptarse a ella”, anotó Vélez.
- Evolucionar con el caso de uso: Puede agregar nuevas fuentes de datos, actualizar modelos o ajustar los parámetros de recuperación a través de simples cambios de configuración. "El sistema crece con usted, manteniendo la consistencia al tiempo que se adapta a los nuevos requisitos”, aseguró el ejecutivo.
- Evaluar en pasos sencillos: Permite configurar varios motores RAG con diferentes configuraciones para encontrar lo que funciona mejor para su caso de uso.
Vélez agregó que el motor RAG de Vertex AI ofrece un ecosistema vibrante con una gama de opciones que satisfacen diversas necesidades.
- Capacidades de bricolaje: DIY RAG permite a los usuarios adaptar sus soluciones mezclando y combinando diferentes componentes. "Funciona muy bien para casos de uso de complejidad baja a media con una API fácil de usar, lo que permite una experimentación rápida, una prueba de concepto y una aplicación basada en RAG con unos pocos clics”, aseguró el ejecutivo.
- Funcionalidad de búsqueda: Vertex AI Search se destaca como una solución sólida y totalmente administrada. Admite una amplia variedad de casos de uso, desde simples hasta complejos, con alta calidad lista para usar, facilidad para comenzar y mantenimiento mínimo.
- Conectores: Una lista de conectores en rápido crecimiento le ayuda a conectarte rápidamente a varias fuentes de datos, como Cloud Storage, Google Drive, Jira, Slack o archivos locales. RAG Engine maneja el proceso de ingesta (incluso para múltiples fuentes) a través de una interfaz intuitiva.
- Rendimiento y escalabilidad mejorados: Vertex AI Search está diseñado para manejar grandes volúmenes de datos con una latencia excepcionalmente baja. "Esto se traduce en tiempos de respuesta más rápidos y un mejor rendimiento para sus aplicaciones RAG, especialmente cuando se trata de bases de conocimiento complejas o extensas”, sostuvo Vélez.
- Administración de datos simplificada: Permite importar los datos de varias fuentes, como sitios web, conjuntos de datos de BigQuery y depósitos de Cloud Storage, para optimizar su proceso de ingesta de datos.
- Mejora de la calidad de salida de LLM: Mediante el uso de las capacidades de recuperación de Vertex AI Search, puede ayudar a garantizar que su aplicación RAG recupere la información más relevante de su corpus, lo que conduce a salidas generadas por LLM más precisas e informativas.
Puede acceder al motor RAG de Vertex AI a través de Vertex AI Studio. El precio de reserva anticipada está disponible desde ahora hasta el 14 de febrero.
Franca Cavassa, CTOPerú