[26/08/2024] Securing LLM Backed Systems: Essential Authorization Practices, el último informe de Cloud Security Alliance (CSA), organización dedicada a definir estándares, certificaciones y mejores prácticas para ayudar a garantizar un entorno seguro de computación en la nube, examina las consideraciones especiales que los arquitectos e ingenieros de sistemas probablemente encontrarán al trabajar con grandes modelos de lenguaje (LLM). Redactada por el Grupo de Trabajo de Tecnología y Riesgo de IA, la guía proporciona una visión general de los patrones de diseño y las mejores prácticas para los sistemas y destaca algunas de las preocupaciones exclusivas de los sistemas de software que no existen en las arquitecturas tradicionales.
El documento ofrece consejos prácticos sobre la implementación del control y cómo evaluar mejor el diseño seguro de los productos que utilizan LLM para brindar servicio. Entre los patrones de diseño de arquitectura cubiertos se encuentran: Generación Aumentada de Recuperación (RAG), acceso a RAG utilizando una base de datos vectorial o relacional, RAG a través de llamadas API a sistemas externos, sistemas LLM que escriben y ejecutan código y agentes autónomos respaldados por LLM. En la guía se analizan las recomendaciones, las consideraciones y los escollos de cada patrón para ayudar a los arquitectos de sistemas a navegar eficazmente por las compensaciones.
"A medida que la tecnología LLM evoluciona, es crucial compartir conocimientos y experiencias dentro de la comunidad. Un enfoque colaborativo, como el que se ofrece en este informe, ayudará a aprovechar todo el potencial de los LLM sin sacrificar los altos estándares de seguridad y autorización", señaló Laura Voicu, autora principal del documento y miembro del grupo de trabajo, en una entrada de blog. "Esperamos que esta guía permita a los diseñadores de sistemas construir sistemas de forma segura utilizando la poderosa flexibilidad que ofrece esta nueva clase de herramientas".
La guía también presenta varios componentes esenciales para los sistemas respaldados por LLM:
- Bases de datos vectoriales, especializadas en la gestión de vectores de datos de alta dimensión, y que se están volviendo imprescindibles para la recuperación y el procesamiento en sistemas de IA;
- Orquestadores, que coordinan las entradas y salidas de LLM y gestionan las interacciones con otros servicios al tiempo que mitigan riesgos como la inyección inmediata;
- Cachés de LLM, que aceleran las respuestas, pero requieren comprobaciones de control para evitar el acceso no autorizado; y
- Validadores, que añaden una capa de defensa contra los ataques, aunque la protección primaria debe provenir de la autorización determinista.
Franca Cavassa, CTOPerú