[13/12/2024] Confluent anunció la disponibilidad general de Confluent Platform for Apache Flink con capacidades de seguridad de nivel empresarial adicionales y formas más fáciles de administrar y escalar las cargas de trabajo de Apache Flink en las instalaciones. Según lo señalado en el comunicado de prensa, Confluent es ahora la única empresa que ofrece transmisión de datos junto con procesamiento de transmisión para cargas de trabajo en la nube y en las instalaciones para que las empresas puedan convertir sus datos en valor más rápido. Además, Confluent anunció WarpStream Orbit para facilitar la migración al modelo de implementación "Bring Your Own Cloud (BYOC)" de WarpStream.
"El procesamiento de flujos es donde ocurre la magia. Transforma los datos en tiempo real en experiencias y operaciones que impulsan las empresas modernas", sostuvo Shaun Clowes, director de productos de Confluent. "Con nuestro último anuncio, cualquier organización puede aprovechar Apache Flink, escalándolo, asegurándolo y administrándolo con facilidad, desbloqueando la innovación sin límites".
El ejecutivo anotó que el procesamiento de flujos permite a las empresas analizar y reaccionar a cantidades masivas de datos en tiempo real para la toma de decisiones, la detección de fraudes, la experiencia personalizada del cliente y mucho más. "Apache Flink se ha convertido en la solución de procesamiento de flujos de facto para las empresas con su increíble rendimiento, su sólida gestión de estado y la flexibilidad para manejar análisis complejos en tiempo real a escala. Sin embargo, los equipos a menudo tienen dificultades para autogestionar Flink porque requiere configurar, operar, escalar y proteger un sistema distribuido complejo. Para las organizaciones con cargas de trabajo locales, existe la necesidad de una solución que proporcione la flexibilidad y los beneficios de las tecnologías nativas de la nube dentro de las infraestructuras privadas”.
Con la disponibilidad general de Confluent Platform for Apache Flink, Clowes sostuvo que las organizaciones pueden administrar cargas de trabajo locales a escala con soporte a largo plazo de los principales expertos en Apache Kafka y Flink del mundo, e indicó que el plano de control y distribución Flink de nivel empresarial de Confluent Platform permite a los equipos:
- Optimizar la gestión del ciclo de vida con una implementación y un escalado simplificados, una automatización mejorada y una asignación de recursos eficiente.
- Garantizar un modelo de seguridad integrado con controles de acceso unificados y políticas de seguridad coherentes en todos los sistemas.
- Minimizar el riesgo con el soporte consolidado de Flink y Kafka y la orientación de los principales expertos en la industria de transmisión de datos.
"Una nueva característica de Confluent Platform for Apache Flink, Confluent Manager for Apache Flink (CMF), hace que la implementación, la actualización y el escalado de Flink sean tan fáciles en las instalaciones como en la nube”, anotó el ejecutivo, indicando que Confluent Manager para Apache Flink permite:
- Gestión simplificada para optimizar las implementaciones de Flink a gran escala en Kubernetes, lo que hace que la gestión de recursos y el escalado sean más eficientes.
- Colaboración mejorada que centraliza la gestión en todo el ecosistema de Confluent. CMF promueve la consistencia y optimiza los procesos, facilitando una mejor colaboración entre los equipos.
- Seguridad mejorada con mecanismos de seguridad sólidos, simplifica la administración de la seguridad y garantiza el cumplimiento de las políticas de la organización.
Acelere las migraciones a WarpStream
Clowes comentó que el modelo de implementación BYOC de WarpStream es una opción popular para los clientes con cargas de trabajo a gran escala y requisitos de latencia relajados que buscan utilizar su propia nube privada virtual (VPC). "Tradicionalmente, puede ser un proceso manual y desafiante migrar de Kafka de código abierto a un modelo BYOC porque implica navegar por diferentes entornos de Kafka y crear soluciones personalizadas que aumentan el tiempo, los costos y los problemas de calidad de los datos. WarpStream Orbit hace que sea más fácil que nunca mover las cargas de trabajo existentes de Kafka de código abierto, o cualquier servicio compatible con Kafka, a los clústeres de WarpStream. Los clientes pueden migrar sin problemas a WarpStream, optimizar los clústeres de Kafka existentes con almacenamiento por niveles para reducir costos y configurar la recuperación ante desastres para cargas de trabajo de alto rendimiento y latencia relajada”, finalizó.
Franca Cavassa, CTOPerú