Noticias

AWS anuncia EC2 Capacity Blocks para cargas de trabajo de ML

[06/11/2023] Amazon Web Services, Inc. (AWS) ha anunciado la disponibilidad general de los bloques de capacidad de Amazon Elastic Compute Cloud (EC2) para ML, un modelo de consumo que permite a cualquier cliente acceder a la capacidad de cálculo de GPU más solicitada para ejecutar sus cargas de trabajo de aprendizaje automático (ML) de corta duración. Según lo señalado en el comunicado de prensa, con EC2 Capacity Blocks, los clientes pueden reservar cientos de GPU NVIDIA ubicadas en Amazon EC2 UltraClusters diseñados para cargas de trabajo de ML de alto rendimiento.

"Los clientes pueden utilizar EC2 Capacity Blocks con instancias P5, impulsadas por las últimas GPU NVIDIA H100 Tensor Core, especificando el tamaño de su clúster, la fecha de inicio futura y la duración. Los bloques de capacidad EC2 ayudan a garantizar a los clientes un acceso fiable, predecible e ininterrumpido a la capacidad de cálculo de la GPU necesaria para sus proyectos de ML críticos, anotó David Brown, vicepresidente de Compute and Networking en AWS.

Según el ejecutivo, los avances en ML han abierto oportunidades para que organizaciones de todos los tamaños y sectores inventen nuevos productos y transformen sus negocios. "Las cargas de trabajo de ML tradicionales exigen una capacidad de cálculo considerable y, con la llegada de la IA generativa, se necesita incluso más capacidad de cálculo para procesar los enormes conjuntos de datos que se utilizan para entrenar los modelos de fundamentos (FM) y los grandes modelos de lenguaje (LLM).

Brown explicó que los clústeres de GPU son idóneos para esta tarea porque su capacidad combinada de procesamiento paralelo acelera los procesos de entrenamiento e inferencia. "Sin embargo, a medida que más organizaciones reconocen el poder transformador de la IA generativa, la demanda de GPU ha superado a la oferta. Como resultado, los clientes que desean aprovechar las últimas tecnologías de ML, especialmente aquellos cuyas necesidades de capacidad fluctúan en función de la fase de adopción en la que se encuentren, pueden tener dificultades para acceder a los clústeres de GPU necesarios para ejecutar sus cargas de trabajo de ML. Por otra parte, los clientes pueden comprometerse a adquirir grandes cantidades de capacidad de GPU durante largos periodos de tiempo, sólo para que permanezcan inactivas cuando no las utilizan activamente. Los clientes buscan formas de aprovisionar la capacidad de GPU que necesitan con más flexibilidad y previsibilidad, sin tener que comprometerse a largo plazo.

Con EC2 Capacity Blocks, agregó el ejecutivo, los clientes pueden reservar la cantidad de capacidad de GPU que necesitan durante periodos cortos para ejecutar sus cargas de trabajo de ML, lo que elimina la necesidad de retener capacidad de GPU cuando no se utiliza. "Los EC2 Capacity Blocks se despliegan en EC2 UltraClusters, interconectados con redes a escala petabit de segunda generación Elastic Fabric Adapter (EFA), que proporcionan conectividad de baja latencia y alto rendimiento, lo que permite a los clientes escalar hasta cientos de GPU.

Brown continuó señalando que los clientes pueden reservar UltraClusters EC2 de instancias P5 equipadas con GPU NVIDIA H100 durante un periodo de entre uno y 14 días, en una fecha de inicio futura de hasta ocho semanas de antelación, y en tamaños de clúster de una a 64 instancias (512 GPU), lo que les proporciona la flexibilidad necesaria para ejecutar una amplia gama de cargas de trabajo de ML y pagar únicamente por el tiempo de GPU necesario. "Los EC2 Capacity Blocks son ideales para completar el entrenamiento y el ajuste fino de los modelos de ML, ejecutar experimentos breves y gestionar futuros aumentos temporales de la demanda de inferencia para respaldar los próximos lanzamientos de productos de los clientes a medida que las aplicaciones generativas se generalizan. Una vez programado un EC2 Capacity Block, los clientes pueden planificar la implantación de sus cargas de trabajo de ML con seguridad, sabiendo que dispondrán de la capacidad de GPU cuando la necesiten.

Los clientes pueden utilizar la consola de administración de AWS, la interfaz de línea de comandos o el SDK para buscar y reservar bloques de capacidad disponibles. Con los EC2 Capacity Blocks, los clientes solo pagan por la cantidad de tiempo que reservan. Los EC2 Capacity Blocks están disponibles en la Región Este de EE.UU. de AWS (Ohio), con disponibilidad prevista para otras Regiones y Zonas Locales de AWS.

Llegamos a ustedes gracias a:


BrandPosts Qué es BrandPost

Más »
×
Los artículos publicados en esta sección -BrandPosts- son escritos y editados por los proveedores o miembros de la comunidad TI. BrandPosts crea una oportunidad para que un patrocinador proporcione información y comentarios desde su punto de vista, directamente a la audiencia de CTO Perú. El equipo editorial de CTO Perú no participa en la redacción o edición de estos BrandPosts.

Primer contacto

Más »

Casos de éxito

Más »