
[21/03/2025] Tenable anunció el lanzamiento de su informe titulado "Cloud AI Risk Report 2025”, que descubrió que la IA basada en la nube es propensa a combinaciones tóxicas evitables que dejan los datos y modelos sensibles de IA vulnerables a la manipulación y fuga de datos.
"Es innegable que la nube y la IA cambian las reglas del juego para las empresas. Sin embargo, ambas introducen complejos riesgos cibernéticos cuando se combinan. El Informe destaca el estado actual de los riesgos de seguridad en las herramientas y marcos de desarrollo de la IA en la nube, y en los servicios de IA ofrecidos por los tres principales proveedores de la nube: Amazon Web Services (AWS), Google Cloud Platform (GCP) y Microsoft Azure”, sostuvo Liat Hayun, VP de Investigación y Gestión de Productos, Seguridad en la Nube, Tenable, en el comunicado de prensa.
Las principales conclusiones del informe son las siguientes
- Las cargas de trabajo de IA en la nube no son inmunes a las vulnerabilidades: Aproximadamente el 70% de las cargas de trabajo de IA en la nube contienen al menos una vulnerabilidad sin remediar. En particular, el equipo de Tenable Research encontró la vulnerabilidad crítica CVE-2023-38545 en el 30% de las cargas de trabajo de IA en la nube.
- En los servicios gestionados de IA existen errores de configuración en la nube al estilo Jenga: El 77% de las organizaciones tienen la cuenta de servicio Compute Engine por defecto con exceso de privilegios configurada en los cuadernos Google Vertex AI. Esto significa que todos los servicios creados en este Compute Engine predeterminado están en peligro. El concepto de estilo Jenga, acuñado por Tenable, identifica la tendencia de los proveedores de la nube a construir un servicio sobre otro, con bloques de construcción 'entre bastidores' que heredan los valores predeterminados de riesgo de una capa a la siguiente. Estas desconfiguraciones de la nube, especialmente en entornos de IA, pueden tener graves implicaciones de riesgo si se explotan.
- Los datos de entrenamiento de IA son susceptibles de envenenamiento de datos, amenazando con sesgar los resultados del modelo: El 14% de las organizaciones que utilizan Amazon Bedrock no bloquean explícitamente el acceso público a al menos un bucket de entrenamiento de IA y el 5% tienen al menos un bucket excesivamente permisivo.
- Las instancias notebook de Amazon SageMaker conceden acceso root de forma predeterminada: Como resultado, el 91% de los usuarios de Amazon SageMaker tienen al menos un bloc de notas que, si se ve comprometido, podría conceder acceso no autorizado, lo que podría dar lugar a la modificación potencial de todos los archivos que contiene.
"Cuando hablamos del uso de IA en la nube, está en juego algo más que datos sensibles. Si un actor de amenaza manipula los datos o el modelo de IA, puede haber consecuencias catastróficas a largo plazo, como la integridad comprometida de los datos, la seguridad comprometida de los sistemas críticos y la degradación de la confianza del cliente. Las medidas de seguridad en la nube deben evolucionar para hacer frente a los nuevos desafíos de la IA y encontrar el delicado equilibrio entre la protección contra ataques complejos a los datos de IA y permitir a las organizaciones lograr una innovación responsable de la IA”, finalizó Hayun.
Franca Cavassa, CTOPerú