Noticias

Intel se une al AI Safety Working Group de MLCommons

[10/11/2023] Intel anunció que se unirá al nuevo grupo de trabajo MLCommons AI Safety (AIS) junto con expertos en inteligencia artificial de la industria y el mundo académico. Como miembro fundador, el comunicado de prensa señaló que Intel contribuirá con su experiencia y conocimiento para ayudar a crear una plataforma flexible para los análisis de referencia que miden la seguridad y los factores de riesgo de las herramientas y modelos de IA. A medida que las pruebas maduren, los puntos de referencia estándar de seguridad de IA desarrollados por el grupo de trabajo se convertirán en un elemento vital del enfoque de nuestra sociedad para el despliegue y la seguridad de esta tecnología.

"Intel se ha comprometido a hacer que la IA avance de manera responsable y a hacerla accesible a todos. Abordamos las preocupaciones de seguridad de manera integral y desarrollamos innovaciones en hardware y software para permitir que el ecosistema construya IA confiable. Debido a la presencia generalizada y constante de modelos de lenguaje grandes, es fundamental colaborar en todo el entorno para abordar las preocupaciones de seguridad en el desarrollo y la puesta en marcha de la inteligencia artificial. Con este fin, nos complace unirnos a la industria en la definición de los nuevos procesos, métodos y puntos de referencia para mejorar la IA en todas partes", mencionó Deepak Patil, vicepresidente corporativo y gerente general de Soluciones de IA para centros de datos.

De acuerdo al ejecutivo, la capacitación responsable y el despliegue de grandes modelos lingüísticos (LLM) y herramientas son de suma importancia para ayudar a mitigar los riesgos sociales que plantean estas poderosas tecnologías. "Intel ha reconocido desde hace tiempo la importancia de las implicaciones éticas y de derechos humanos asociadas con el desarrollo de la tecnología, especialmente la IA.

Patil anotó que este grupo de trabajo proporcionará un sistema de clasificación de seguridad para evaluar el riesgo que presentan las nuevas tecnologías de IA de rápida evolución.

El grupo de trabajo de seguridad de IA está organizado por MLCommons con la participación de un grupo multidisciplinario de expertos en IA. El grupo desarrollará una plataforma y un conjunto de pruebas de colaboradores para respaldar los puntos de referencia de seguridad de IA para diversos casos de uso.

"Intel planea compartir los hallazgos de seguridad de la IA y las mejores prácticas y procesos para el desarrollo responsable, como equipos rojos y pruebas de seguridad, indicó Patil, señalando que la lista completa de los miembros participantes se puede encontrar en el sitio web de MLCommons.

El ejecutivo agregó que el enfoque inicial del grupo de trabajo será desarrollar puntos de referencia de seguridad para LLM, basándose en el trabajo preliminar de los investigadores del Centro de Investigación sobre Modelos de Fundación de la Universidad de Stanford y su Evaluación Holística de Modelos de Lenguaje (HELM). "Intel compartirá sus procesos de revisión multidisciplinarios que utilizan internamente para desarrollar modelos y herramientas de IA con el grupo de trabajo de AIS para ayudar a establecer un conjunto común de mejores prácticas y puntos de referencia para evaluar el desarrollo seguro y la implementación de una herramienta generativa de IA que aproveche los LLM, finalizó Patil.

Llegamos a ustedes gracias a:


BrandPosts Qué es BrandPost

Más »
×
Los artículos publicados en esta sección -BrandPosts- son escritos y editados por los proveedores o miembros de la comunidad TI. BrandPosts crea una oportunidad para que un patrocinador proporcione información y comentarios desde su punto de vista, directamente a la audiencia de CTO Perú. El equipo editorial de CTO Perú no participa en la redacción o edición de estos BrandPosts.

Primer contacto

Más »

Casos de éxito

Más »