InicioDestacadoResumen | NVIDIA GTC 22 (2): Enterprise

Resumen | NVIDIA GTC 22 (2): Enterprise

Presentaron nuevos productos para el Metaverso, servicios Cloud y GPUs de nueva generación

Esta semana se realizó la NVIDIA GTC 22 (GPU Tecnology Conference), conferencia dedicada a desarrolladores, ingenieros, investigadores, inventores y profesionales de TI. En este evento, la compañía multinacional de tecnología mostró sus últimos avances en todas sus líneas de desarrollo.

El evento contó con varios momentos y anuncios especiales, tanto de usuario como Enterprise. Para su rama empresarial, mostraron nuevos productos para el desarrollo del Metaverso, GPUs, servicios cloud, así como también nuevas tecnologías que se vienen.

Ojo, que el evento también tuvo su especial de respecto a la rama GeForce, en donde puedes conocer sus novedades en nuestra nota temática aquí.

Enterprise

Nueva GPU RTX Ada Lovelace

Para los Workstation, se presentó en el evento la GPU NVIDIA RTX 6000, que se basa en la nueva arquitectura NVIDIA Ada Lovelace, enfocada en gráficos neuronales que se une a la IA y la simulación.

Entre los detalles, ofrece renderización en tiempo real, gráficos e IA, los diseñadores e ingenieros pueden impulsar workflows basados en simulación de vanguardia para construir y validar diseños más sofisticados. Para NVIDIA, es la plataforma ideal para crear contenido y herramientas para el metaverso con NVIDIA Omniverse Enterprise.

Los artistas pueden llevar la narración de historias al siguiente nivel, creando contenido más atractivo y creando entornos virtuales inmersivos. Los científicos, investigadores y profesionales médicos pueden acelerar el desarrollo de medicamentos y procedimientos que salvan vidas con la potencia de supercomputación en sus workstations, con un rendimiento hasta 2-4x mayor que la RTX A6000 de la generación anterior.

La RTX 6000 incorpora las últimas generaciones de tecnologías de renderizado, IA y sombreadores y cuenta con 48 GB de memoria de GPU, por lo que permite a los usuarios crear contenido increíblemente detallado, desarrollar simulaciones complejas y formar los componentes fundamentales necesarios para construir mundos virtuales atractivos y cautivantes.

Entre sus características están:

  • Núcleos RT de 3.ª Generación: Hasta el doble de rendimiento que la generación anterior, con la capacidad de ejecutar simultáneamente el ray tracing con capacidades de sombreado o eliminación de ruido.
  • Núcleos Tensor de 4.ª generación: Rendimiento de entrenamiento de IA hasta 2 veces más rápido que la generación anterior con compatibilidad ampliada para el formato de datos FP8.
  • Núcleos CUDA: Hasta el doble de rendimiento de punto flotante de precisión única en comparación con la generación anterior.
  • Memoria de GPU: Cuenta con 48 GB de memoria GDDR6 para trabajar con los modelos 3D más grandes, renderizar imágenes, simulación y conjuntos de datos de IA.
  • Virtualización: Será compatible con el software de GPU virtuales (vGPU) de NVIDIA para múltiples instancias de workstations virtuales de alto rendimiento, lo que permitirá a los usuarios remotos compartir recursos e impulsar cargas de trabajo de diseño de alta gama, IA y computación.
  • XR: Ofrece el triple de rendimiento de codificación de video, en comparación con la generación anterior, para transmitir varias sesiones de XR simultáneas con NVIDIA CloudXR.

Estará disponible a partir de diciembre de este año.

Segunda generación de NVIDIA OVX

Durante el 20 de septiembre, NVIDIA presentó su segunda generación de NVIDIA Omniverse (OVX), impulsada por una arquitectura de GPU de próxima generación y la tecnología mejorada de redes, para ofrecer capacidades innovadoras de simulación de gráficos en tiempo real, IA y digital twins.

Los nuevos sistemas están diseñados para mundos virtuales 3D utilizando las principales aplicaciones de software 3D y operar simulaciones inmersivas de digital twins en NVIDIA Omniverse Enterprise, una plataforma escalable e integral que permite a las empresas crear y operar aplicaciones del metaverso.

Para potenciar los nuevos sistemas OVX, se utilizará la GPU NVIDIA L40. Además, la OVX incluye la NVIDIA ConnectX-7 SmartNIC, lo que proporciona un rendimiento mejorado de red y almacenamiento y la sincronización precisa necesaria para los digital twins reales. ConnectX-7 incluye compatibilidad para redes 200G en cada puerto y cifrado de datos rápido en línea para acelerar el movimiento de datos y aumentar la seguridad de los digital twins.

Cada nodo de servidor OVX combina ocho GPU NVIDIA L40 con tres adaptadores de red NVIDIA ConnectX-7, lo que brinda la potencia de redes de 100/200/400G. Para las cargas de trabajo de Omniverse que requieren un mayor nivel de rendimiento y escala, los servidores se pueden implementar en configuraciones de NVIDIA OVX POD y SuperPOD con la plataforma Ethernet NVIDIA Spectrum-3.

Sobre su disponibilidad, estos sistemas estarán disponibles en Inspur, Lenovo y Supermicro a principios de 2023. GIGABYTE, H3C y QCT también ofrecerán sistemas OVX que incluirán GPU basadas en la arquitectura de próxima generación en el futuro.

Tercera generación de GPU L40

Otra novedad relacionada fue el anuncio oficial de la tercera generación de GPU L40, basada en la arquitectura de GPU de próxima generación de NVIDIA.

Los Núcleos RT de tercera generación de la GPU L40 y los Núcleos Tensor de cuarta generación ofrecerán potentes capacidades para las cargas de trabajo de Omniverse que se ejecutan en OVX, incluida la renderización acelerada de materiales con ray tracing y path tracing, simulaciones físicamente precisas y la generación de datos sintéticos 3D fotorrealistas.

La L40 estará disponible en los servidores con Sistemas Certificados por NVIDIA de los principales proveedores OEM, con el fin de impulsar las cargas de trabajo de RTX desde el data center.

Nuevos servicios de Cloud para Inteligencia Artificial y Biología Digital

Otra novedad del evento fueron sus dos nuevos servicios de AI Cloud para modelos de idiomas grandes: el Servicio NVIDIA NeMo Large Language Model y el Servicio NVIDIA BioNeMo LLM.

Estos permiten a los desarrolladores adaptar fácilmente los LLM e implementar aplicaciones de IA personalizadas para la generación de contenido, resumen de texto, chatbots, desarrollo de código, así como estructura de proteínas y predicciones de propiedades biomoleculares, y más.

El Servicio NeMo LLM permite a los desarrolladores adaptar rápidamente una serie de modelos de fundación previamente entrenados utilizando un método de entrenamiento llamado aprendizaje rápido en la infraestructura administrada por NVIDIA. El Servicio NVIDIA BioNeMo es una Interfaz de programación de aplicaciones (API) de cloud que expande los casos de uso de LLM más allá del idioma y en aplicaciones científicas para acelerar el descubrimiento de fármacos para las empresas farmacéuticas y biotecnológicas.

El Servicio BioNeMo LLM permite a los investigadores ampliar el alcance de su trabajo aprovechando modelos que contienen miles de millones de parámetros. Estos modelos más grandes pueden almacenar más información sobre la estructura de las proteínas, las relaciones evolutivas entre los genes e incluso generar nuevas biomoléculas para aplicaciones terapéuticas.

El servicio también incluye dos nuevos modelos de Idiomas BioNeMo para aplicaciones de química y biología. Proporciona soporte para datos de proteínas, ADN y bioquímica para ayudar a los investigadores a descubrir patrones y conocimientos en secuencias biológicas.

Se espera que los servicios neMo LLM y BioNeMo y las API de cloud estén disponibles en acceso anticipado a partir del próximo mes. Los desarrolladores pueden solicitarlos ahora para obtener más detalles de octubre.

Adicionalmente, la versión beta del framework NeMo Megatron está disponible mediante NVIDIA NGC y está optimizada para ejecutarse en NVIDIA DGX Foundry y NVIDIA DGX SuperPOD, así como instancias de cloud aceleradas de Amazon Web Services, Microsoft Azure y Oracle Cloud Infrastructure.

Listos para Usar: La API de Cloud con Acceso a Modelos Megatron 530B y Otros Modelos

Además de ajustar los modelos de base, los servicios de LLM incluyen la opción de usar modelos personalizados y listos para usar a través de una API de cloud.

 Esto les da a los desarrolladores acceso a una amplia gama de LLM previamente entrenados, incluido uno de los más grandes del mundo, Megatron 530B, con 530,000 millones de parámetros. También proporciona acceso a modelos T5 y GPT-3 creados con el framework NVIDIA NeMo Megatron , ahora disponible en versión beta abierta, para admitir una amplia gama de aplicaciones y requisitos de servicio multilingües.

Según comentaron, los líderes en las industrias automotriz, de computación, educación, atención de la salud, telecomunicaciones y otras están usando NeMo Megatron para ofrecer servicios pioneros a clientes en chino, inglés, coreano, sueco y otros idiomas.

Expansión alianza entre Nvidia y Deloitte: nuevos Servicios basados en las Plataformas de IA de NVIDIA y Omniversea 

Durante la conferencia, NVIDIA y Deloitte anunciaron una expansión de su alianza para permitir que las empresas de todo el mundo desarrollen e implementen soluciones de cloud híbrido utilizando las plataformas de IA de NVIDIA y NVIDIA Omniverse Enterprise.

Según los detalles, los profesionales de Deloitte obtendrán acceso a ambas plataformas de NVIDIA para ayudar a los clientes a desarrollar e implementar una amplia gama de aplicaciones de IA, incluida la IA en el edge, la IA de habla, los sistemas de recomendación, los chatbots, la ciberseguridad, los digital twins y más. 

La relación ampliará la capacidad de Deloitte para desarrollar soluciones innovadoras para sus clientes, incluidas empresas multinacionales. Los productos y tecnologías de IA de NVIDIA con la profunda experiencia de IA de Deloitte ayudarán a los clientes a abordar desafíos comerciales clave, como obtener una ventaja competitiva, mejorar la experiencia del cliente, optimizar operaciones y lanzar negocios innovadores en nuevos mercados.

Adicionalmente, los servicios de Realidad Ilimitada de Deloitte aprovechan el Centro para la Computación de IA y la plataforma NVIDIA Omniverse Enterprise para la colaboración de diseño 3D y la simulación de mundos virtuales. Deloitte y NVIDIA mencionan también estar colaborando para crear réplicas inmersivas o híbridas de entornos y procesos del mundo real para ayudar a las empresas a optimizar las operaciones y la toma de decisiones inteligente.

Los servicios estarán impulsados por diversos productos y tecnologías de envidia, que incluyen:

  • La plataforma NVIDIA Omniverse Enterprise para crear procesos 3D personalizados y simular mundos virtuales.
  • Los microservicios de IA de NVIDIA Omniverse Avatar Cloud Engine junto con el framework de aplicaciones NVIDIA Project Tokkio para crear, personalizar e implementar avatares de servicio interactivos a escala.
  • La suite nativa de cloud NVIDIA AI Enterprise de software de análisis de datos e IA optimizada para el desarrollo y la implementación de la IA. Es esencial para crear aplicaciones listas para la producción en la plataforma de IA de NVIDIA e incluye soporte empresarial global para mantener los proyectos de IA en marcha.
  • El SDK NVIDIA Riva acelerado por GPU para crear aplicaciones de IA de habla que son personalizables para cada caso de uso y ofrecen rendimiento en tiempo real.
  • El framework de código abierto NVIDIA Merlin™ para crear sistemas de recomendación de alto rendimiento a escala.
  • El framework de aplicaciones NVIDIA Metropolis, un conjunto de herramientas para desarrolladores y un ecosistema de socios que reúnen datos visuales e IA para mejorar la eficiencia operativa y la seguridad en una amplia gama de industrias.

Expansión del NVIDIA Jetson

También se anunció la expansión de su línea NVIDIA Jetson, con el lanzamiento de nuevos sistemas en módulos Jetson Orin Nano, que ofrecen hasta 80 veces el rendimiento con respecto a la generación anterior, para establecer un nuevo estándar para la robótica y la IA en el edge de nivel básico.

Por primera vez, la familia NVIDIA Jetson abarca seis módulos de producción basados en Orin para admitir una gama completa de aplicaciones robóticas y de IA en el edge. La oferta va desde Orin Nano, que ofrece hasta 40 billones de operaciones por segundo (TOPS) de rendimiento de IA en el formato Jetson más pequeño, hasta AGX Orin, que ofrece 275 TOPS para máquinas autónomas avanzadas.

Los módulos Orin Nano estarán disponibles en dos versiones a partir de los $199 USD. El Orin Nano de 8 GB ofrece hasta 40 TOPS con potencia configurable de 7 W a 15 W, mientras que la versión de 4 GB ofrece hasta 20 TOPS con opciones de energía de tan solo 5 W a 10 W.

NVIDIA Hopper en producción

Otra de las novedades fue la GPU NVIDIA H100 Tensor Core, que estará en plena producción próximamente. En octubre, los socios tecnológicos globales planean implementar la primera ola de productos y servicios basados en la innovadora arquitectura NVIDIA Pascal.

Actualmente, se incluye una licencia de cinco años para la suite de software NVIDIA AI Enterprise con H100 para servidores convencionales. Esto optimiza el desarrollo y la implementación de workflows de IA y garantiza que las organizaciones tengan acceso a los frameworks y herramientas de IA necesarios para desarrollar chatbots de IA, motores de recomendación, IA de visión y más.

Para los clientes que quieren probar inmediatamente la nueva tecnología, NVIDIA anunció que H100 en los servidores Dell PowerEdge ya está disponible en NVIDIA LaunchPad, que proporciona laboratorios prácticos gratuitos para brindar a las empresas acceso al hardware más reciente y el software de IA de NVIDIA. Adicionalmente, Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure serán las primeras empresas en implementar instancias basadas en H100 en el cloud a partir del próximo año.

NVIDIA Drive Thor

Finalmente, NVIDIA presentó su nueva computadora centralizada de próxima generación para vehículos autónomos llamada NVIDIA DRIVE Thor. Según indican, reemplazará a NVIDIA DRIVE Atlan y será la continuación de DRIVE Orin, que está actualmente en producción y ofrece 254 TOPS de rendimiento.

Logrará hasta 2000 teraflops de rendimiento, unifica las funciones inteligentes, incluida la conducción automatizada y asistida, el estacionamiento, el monitoreo del conductor y los ocupantes, el grupo de instrumentos digitales, el infoentretenimiento en el vehículo (IVI) y el entretenimiento en el asiento trasero, en una única arquitectura que permite una mayor eficiencia y un menor costo general del sistema.

El superchip de próxima generación incluye capacidades de IA de vanguardia que se presentaron por primera vez en la arquitectura de múltiples instancias de GPU NVIDIA Hopper, junto con la CPU NVIDIA Grace y la GPU Ada Lovelace.

DRIVE Thor con soporte MIG para gráficos y computación permite que IVI y los sistemas avanzados de asistencia al conductor ejecuten el aislamiento de dominios, lo que permite que los procesos simultáneos de tiempo crítico se ejecuten sin interrupción. Disponible para los modelos de 2025 de los fabricantes de automóviles, acelerará los planes de producción al ofrecer un mayor rendimiento y funciones avanzadas al mercado en la misma línea de tiempo.

Como señal del apoyo de la industria del transporte para esta nueva arquitectura de supercomputación, el fabricante de automóviles propiedad de Geely ZEEKR anunció que integrará DRIVE Thor en su computadora de vehículo centralizado para sus vehículos eléctricos inteligentes de próxima generación, que comenzarán la producción a principios de 2025.

Darío "Kentaro Darkdox" Pérez
Darío "Kentaro Darkdox" Pérez
Asesor, OT, Juez y Consultor Externo de Video Games/Cosplay • Informático de profesión • Google Local Guide lvl 7 •

Próximos eventos

¡Siguenos!

16,865FansMe gusta
1,841SeguidoresSeguir
650SeguidoresSeguir
800SeguidoresSeguir
729SeguidoresSeguir

Te recomendamos leer: