Recursos

MIT entrega una base de datos

Que contiene 700+ riesgos asociados con la IA

[19/08/2024] A medida que las organizaciones se apresuran a implementar la inteligencia artificial (IA), un nuevo análisis de los riesgos relacionados con la IA encuentra lagunas significativas en su comprensión, lo que pone de manifiesto la necesidad urgente de un enfoque más integral.

En una revisión exhaustiva realizada por investigadores de MIT CSAIL y MIT FutureTech, se ha descubierto lagunas críticas en los marcos de riesgo de IA existentes. Su análisis revela que incluso el marco individual más exhaustivo pasa por alto aproximadamente el 30% de los riesgos identificados en todos los marcos revisados.

Para ayudar a abordar esto, han colaborado con colegas de la Universidad de Queensland, Future of Life Institute, KU Leuven y Harmony Intelligence, para lanzar el primer repositorio de riesgos de IA: una base de datos viva completa y accesible de 700+ riesgos planteados por la IA que se ampliará y actualizará para garantizar que siga siendo actual y relevante.

"Dado que la literatura sobre el riesgo de la IA está dispersa en revistas revisadas por pares, preprints e informes de la industria, y es bastante variada, me preocupa que los responsables de la toma de decisiones puedan consultar involuntariamente resúmenes incompletos, pasar por alto preocupaciones importantes y desarrollar puntos ciegos colectivos", comentó el doctor Peter Slattery, postdoctorado entrante en el MIT FutureTech Lab y actual líder del proyecto, en una entrada de blog.

Después de buscar en varias bases de datos académicas, involucrar a expertos y recuperar más de 17 mil registros, los investigadores identificaron 43 marcos de clasificación de riesgos de IA existentes. De estos, extrajeron más de 700 riesgos. A continuación, utilizaron enfoques que desarrollaron a partir de dos marcos existentes para categorizar cada riesgo por causa (por ejemplo, cuándo o por qué ocurre), dominio de riesgo (por ejemplo, "Información errónea") y subdominio de riesgo (por ejemplo, "Información falsa o engañosa").

"Algunos ejemplos de riesgos identificados son 'Discriminación injusta y tergiversación', 'Fraude, estafas y manipulación dirigida' y 'Dependencia excesiva y uso inseguro'. La mayoría de los riesgos analizados se atribuyeron a los sistemas de IA (51%) que a los humanos (34%), y se presentaron como emergentes después de la implementación de la IA (65%) en lugar de durante su desarrollo (10%). Los dominios de riesgo abordados con mayor frecuencia incluyeron 'seguridad, fallas y limitaciones del sistema de IA' (76% de los documentos); 'Daños socioeconómicos y ambientales' (73%); 'Discriminación y toxicidad' (71%); 'Privacidad y seguridad' (68%); y 'Actores maliciosos y uso indebido' (68%). En contraste, la 'Interacción humano-computadora' (41%) y la 'Desinformación' (44%) recibieron comparativamente menos atención, anotó el líder del proyecto.

Agregó que, algunos subdominios de riesgo se discutieron con más frecuencia que otros. Por ejemplo, 'Discriminación injusta y tergiversación' (63%), 'Compromiso de la privacidad' (61%) y 'Falta de capacidad o solidez' (59%) se mencionaron en más del 50% de los documentos. Otros, como 'Bienestar y derechos de la IA' (2%), 'Contaminación del ecosistema de información y pérdida de la realidad consensuada' (12%) y 'Dinámica competitiva' (12%), fueron mencionados por menos del 15% de los documentos.

"En promedio, los marcos mencionaron solo el 34% de los 23 subdominios de riesgo identificados, y casi una cuarta parte cubrió menos del 20%. Ningún documento o resumen mencionó los 23 subdominios de riesgo, y el más completo (Gabriel et al., 2024) cubrió solo el 70%, comentó Slattery.

El trabajo aborda la necesidad urgente de ayudar a los responsables de la toma de decisiones en el gobierno, la investigación y la industria a comprender y priorizar los riesgos asociados con la IA y trabajar juntos para abordarlos. "Están surgiendo muchas iniciativas de gobernanza de la IA en todo el mundo centradas en abordar los riesgos clave de la IA, afirmó, por su parte, el colaborador Risto Uuk, jefe de investigación de la UE en el Future of Life Institute. "Estas instituciones necesitan una comprensión más integral y completa del panorama de riesgos".

Los investigadores y los profesionales de la evaluación de riesgos también se ven obstaculizados por la fragmentación de la literatura actual. "Es difícil encontrar estudios específicos de riesgo en algunos dominios de nicho donde se utiliza la IA, como las armas y los sistemas de apoyo a la toma de decisiones militares", explicó Taniel Yusef, investigador afiliado del Centro para el Estudio del Riesgo Existencial, de la Universidad de Cambridge, que no participó en la investigación. "Sin referirnos a estos estudios, puede ser difícil hablar sobre los aspectos técnicos del riesgo de la IA a expertos no técnicos. Este repositorio nos ayuda a hacer eso".

"Existe una necesidad significativa de una base de datos completa de riesgos de IA avanzada que los evaluadores de seguridad como Harmony Intelligence puedan usar para identificar y detectar riesgos de manera sistemática", argumentó el colaborador Soroush Pour, CEO y cofundador de la empresa de evaluaciones de seguridad de IA y red teaming Harmony Intelligence. "De lo contrario, no está claro qué riesgos debemos buscar, o qué pruebas deben hacerse. Es mucho más probable que nos perdamos algo simplemente por no ser conscientes de ello".

El repositorio está disponible gratuitamente en línea para descargar, copiar y usar. Los comentarios y sugerencias se pueden enviar aquí.

Llegamos a ustedes gracias a:


BrandPosts Qué es BrandPost

Más »
×
Los artículos publicados en esta sección -BrandPosts- son escritos y editados por los proveedores o miembros de la comunidad TI. BrandPosts crea una oportunidad para que un patrocinador proporcione información y comentarios desde su punto de vista, directamente a la audiencia de CTOPerú. El equipo editorial de CTOPerú no participa en la redacción o edición de estos BrandPosts.

Primer contacto

Más »

Recursos

Más »