Noticias

Cloudflare anuncia el desarrollo de un Firewall para IA

Para proteger las aplicaciones de IA a escala

[05/03/2024] Cloudflare anunció el desarrollo de un Firewall para IA, señalando que es una nueva capa de protección que identificará abusos y ataques antes de que lleguen y manipulen los modelos de lenguaje grandes (LLM, por sus siglas en inglés), un tipo de aplicación de IA que interpreta el lenguaje humano y otros tipos de datos complejos. Según lo señalado en el comunicado de prensa, el Firewall para IA posicionará a Cloudflare como uno de los proveedores de seguridad preparados para combatir la próxima ola de ataques en la era de la revolución de IA -los que apuntan contra la funcionalidad, los datos críticos y los secretos comerciales que se guardan en los LLM.

"Cuando surgen nuevos tipos de aplicaciones, enseguida aparecen nuevos tipos de amenazas. Ocurre lo mismo con las aplicaciones de IA", sostuvo Matthew Prince, cofundador y director general de Cloudflare. "Con el Firewall para IA de Cloudflare estamos ayudando a integrar la seguridad en el ámbito de la IA desde el comienzo. Brindaremos uno de los mejores escudos de protección para los modelos de IA que permitirán a las empresas aprovechar la oportunidad que ofrece la tecnología, y al mismo tiempo garantizan protección".

El ejecutivo agregó que, con el Firewall para IA de Cloudflare, los equipos de seguridad podrán proteger sus aplicaciones de LLM de potenciales vulnerabilidades que pueden ser utilizadas como armas contra los modelos de IA. Con Cloudflare, agregó Prince, los clientes podrán hacer lo siguiente:

  • Detectar rápidamente nuevas amenazas: El Firewall para IA puede implementarse frente a cualquier LLM que se ejecute en Workers AI de Cloudflare. Al escanear y evaluar indicaciones enviadas por un usuario, identificará mejor los intentos de aprovechar un modelo y extraer datos.
  • Bloquear automáticamente las amenazas sin necesidad de intervención humana: El Firewall para IA, integrado en la red global de Cloudflare, se implementará cerca del usuario final, y brindará una capacidad sin precedentes para proteger casi de inmediato los modelos de los abusos.
  • Implementar la seguridad gratis de manera predeterminada: Todo cliente que ejecute un LLM en Workers AI de Cloudflare puede ser protegido por Firewall para IA de manera gratuita, lo que ayuda a evitar que surjan preocupaciones como la inyección de solicitudes y la filtración de datos.

Llegamos a ustedes gracias a:


BrandPosts Qué es BrandPost

Más »
×
Los artículos publicados en esta sección -BrandPosts- son escritos y editados por los proveedores o miembros de la comunidad TI. BrandPosts crea una oportunidad para que un patrocinador proporcione información y comentarios desde su punto de vista, directamente a la audiencia de CTOPerú. El equipo editorial de CTOPerú no participa en la redacción o edición de estos BrandPosts.

Primer contacto

Más »

Recursos

Más »