
[06/02/2025] La Cloud Security Alliance (CSA), organización mundial dedicada a definir estándares, certificaciones y mejores prácticas para ayudar a garantizar un entorno seguro de computación en la nube, publicó AI Organizational Responsibilities: AI Tools and Applications, el tercero de una serie de informes centrados en las responsabilidades organizacionales de IA. Según lo señalado en el comunicado de prensa, en este informe, la atención se centra en la implementación práctica de la IA dentro de las organizaciones y explora las herramientas, las aplicaciones, las cadenas de suministro y otros componentes esenciales necesarios para implementar con éxito los sistemas impulsados por la IA.
"Al centrarnos en los aspectos prácticos de la adopción y la gestión de la IA, como los que se tratan en este informe, estamos equipando a las organizaciones con el conocimiento y las estrategias esenciales que necesitarán para adoptar y gestionar la IA de manera eficaz y responsable, al tiempo que abordamos los desafíos prácticos de este panorama tecnológico en rápida evolución", sostuvo Ken Huang, copresidente del Grupo de Trabajo de Responsabilidades Organizacionales de IA y autor principal del documento.
Redactado por el Grupo de Trabajo de Responsabilidades Organizacionales de IA de CSA, el documento ofrece marcos estructurados y orientación práctica a las organizaciones en tres áreas críticas de gobernanza y gestión de IA:
- Modelos de lenguaje grandes (LLM) y seguridad de aplicaciones/herramientas de IA generativa (GenAI), que analiza los desafíos de seguridad únicos de estos sistemas y se centra en los aspectos de seguridad de los LLM y las aplicaciones de GenAI.
- Gestión de terceros/cadena de suministro, que se centra en el complejo panorama de la gestión de terceros y de la cadena de suministro en IA y subraya la importancia de una gestión sólida de la cadena de suministro para garantizar la seguridad, la fiabilidad y el uso ético de las tecnologías de IA.
- Consideraciones adicionales sobre la implementación y las operaciones de la IA (por ejemplo, el uso de las herramientas de GenAI por parte de los empleados, la operacionalización de la GenAI para los Centros de Operaciones de Seguridad y las distinciones entre la IA y las responsabilidades tradicionales de TI), que ponen de relieve las implicaciones organizativas más amplias de la adopción de la IA y la necesidad de políticas y directrices claras.
Cada área se examina a través de seis lentes clave: criterios de evaluación, responsabilidad (modelo RACI), estrategia de implementación de alto nivel, monitoreo e informes continuos, mapeo de control de acceso y cumplimiento de los estándares y las mejores prácticas de IA, lo que proporciona a las organizaciones una guía práctica para implementar y administrar sistemas de IA de manera responsable y segura.
"A medida que las tecnologías de IA evolucionan y su adopción se expande en todas las industrias, la necesidad de una gobernanza sólida, protocolos de seguridad y consideraciones éticas se vuelve cada vez más crítica. Las organizaciones deben permanecer vigilantes, manteniéndose al día con las regulaciones emergentes de IA, las mejores prácticas en evolución y las amenazas de seguridad emergentes exclusivas de los sistemas de IA", dijo Michael Roza, copresidente del Grupo de Trabajo de Principales Amenazas y autor principal del documento.
Franca Cavassa, CTOPerú