Noticias

IBM amplía las opciones de GPU de Nvidia

Para los clientes de la nube

[03/10/2024] A pesar del creciente interés en la IA generativa, solo el 39% de las organizaciones encuestadas dicen que actualmente están implementando u operando la IA generativa para la innovación y la investigación. Más de dos tercios (69%) de las organizaciones esperan utilizar la IA generativa para la innovación abierta en el 2025, frente al 29% del 2022.

Para ayudar a los clientes a adoptar la IA generativa, IBM está ampliando sus ofertas de computación de alto rendimiento (HPC, por sus siglas en inglés), dando a las empresas más potencia y versatilidad para llevar a cabo la investigación, la innovación y la transformación empresarial. "Con la disponibilidad general de las instancias de GPU NVIDIA H100 Tensor Core en IBM Cloud, las empresas tendrán acceso a una potente plataforma para aplicaciones de IA, incluido el entrenamiento de modelos de lenguaje (LLM) de gran tamaño. Esta nueva GPU se une a la línea existente de ofertas de computación acelerada de IBM Cloud para aprovechar durante cada etapa de la implementación de IA de una empresa, sostuvo Rohit Badlaney, gerente general, Plataformas de Productos e Industria de IBM Cloud, en una entrada de blog.

El ejecutivo anotó que los clientes que buscan transformarse con IA pueden aplicar el estudio de IA watsonx, el data lakehouse y el kit de herramientas de gobernanza de IBM incluso a las aplicaciones más exigentes y de uso intensivo de cómputo, elevando el techo para la innovación, incluso en las industrias más reguladas.

"El año pasado, comenzamos a poner a disposición de los clientes las GPU NVIDIA A100 Tensor Core a través de IBM Cloud, lo que les brinda un inmenso margen de procesamiento para innovar con IA a través de nuestra plataforma watsonx, o como GPUaaS para necesidades personalizadas, señaló Badlaney. "La nueva GPU NVIDIA H100 Tensor Core lleva esta progresión un paso más allá, y según NVIDIA puede permitir un rendimiento de inferencia hasta 30 veces más rápido que el A100. Tiene el potencial de ofrecer a los clientes de IBM Cloud una gama de capacidades de procesamiento y, al mismo tiempo, abordar el costo del ajuste y la inferencia de la IA en toda la empresa. Las empresas pueden empezar poco a poco, entrenando modelos a pequeña escala, afinando modelos o implementando aplicaciones como chatbots, búsqueda en lenguaje natural y utilizando herramientas de previsión con las GPU NVIDIA L40S y L4 Tensor Core. A medida que crecen sus necesidades, los clientes de IBM Cloud pueden ajustar su gasto en consecuencia, aprovechando finalmente el H100 para los casos de uso de IA y HPC más exigentes.

Al ofrecer acceso directo a estas GPU NVIDIA en IBM Cloud, en VPC y en entornos gestionados de Red Hat OpenShift, el ejecutivo añadió que están impulsando una transformación más sencilla para obtener una ventaja competitiva con la IA generativa. "En combinación con watsonx para crear modelos de IA y gestionar la complejidad y la gobernanza de los datos, así como con nuestras herramientas de seguridad, las empresas de todos los tamaños tienen el potencial de hacer frente a los retos de la ampliación de la IA.

Las instancias de GPU NVIDIA H100 Tensor Core en IBM Cloud ya están disponibles en las regiones multizona (MZR) en América del Norte, América Latina, Europa, Japón y Australia.

Llegamos a ustedes gracias a:


BrandPosts Qué es BrandPost

Más »
×
Los artículos publicados en esta sección -BrandPosts- son escritos y editados por los proveedores o miembros de la comunidad TI. BrandPosts crea una oportunidad para que un patrocinador proporcione información y comentarios desde su punto de vista, directamente a la audiencia de CTOPerú. El equipo editorial de CTOPerú no participa en la redacción o edición de estos BrandPosts.

Primer contacto

Más »

Recursos

Más »