Nvidia y Microsoft potencian la computación de la nube

Nvidia y Microsoft potencian la computación de la nube

Recientemente, NVIDIA y Microsoft mostraron los planos para un nuevo acelerador de GPU con hiperescalabilidad para impulsar la computación de la nube con inteligencia artificial.

El nuevo acelerador de GPU con hiperescalabilidad HGX-1 proporciona a los centros de datos un camino rápido y flexible hacia la inteligencia artificial. Además, presenta un diseño de código abierto y se presentó junto al proyecto Olympus de Microsoft.

El impacto de HGX-1 en las cargas de trabajo de IA basadas en la nube es comparable con la forma en que ATX (Advanced Technology extended) revolucionó a las placas base de PC, cuando se presentó hace más de dos décadas. Establece un estándar para la industria que se puede adoptar de forma rápida para cumplir con las demandas de un mercado emergente.

La nueva arquitectura se diseñó para hacer frente a la creciente demanda de computación de inteligencia artificial en la nube, en campos como la conducción autónoma, la atención de la salud personalizada, el reconocimiento de voz sobrehumano, el análisis de videos y datos, y las simulaciones moleculares.

Para las miles de compañías y empresas emergentes en todo el mundo que invierten en la inteligencia artificial y adoptan estrategias basadas en esta tecnología, la arquitectura de HGX-1 proporciona una configurabilidad y un rendimiento sin precedentes en la nube.

Con la tecnología de ocho GPU NVIDIA Tesla P100 en cada carcasa, con un diseño de intercambio innovador basado en la tecnología de interconexión NVIDIA NVLink y la norma PCIe, lo que permite a una CPU conectarse de forma dinámica con diferentes GPU. Esto les permite a los proveedores de servicios de nube usar de forma estandarizada la infraestructura de HGX-1 para ofrecer a los clientes una gran variedad de configuraciones de instancias de CPU y GPU.

Hoy en día, las cargas de trabajo en la nube son más diversas y complejas que nunca. La capacitación de inteligencia artificial, las inferencias y las cargas de trabajo HPC se ejecutan de forma óptima en diferentes configuraciones de sistemas, con una CPU conectada a diferentes GPU. El diseño modular del HGX-1 permite un rendimiento óptimo independientemente de la carga de trabajo. Proporciona un rendimiento de aprendizaje profundo hasta 100 veces más rápido, en comparación con los servidores basados en CPU heredados. Además, según las estimaciones, el costo de la capacitación de inteligencia artificial se reduce hasta 5 veces; el de la inferencia de inteligencia artificial, hasta 10 veces.

Gracias a su flexibilidad para trabajar con los centros de datos de todo el mundo, HGX-1 ofrece a los centros de datos de hiperescalabilidad existentes, un camino rápido y sencillo hacia la inteligencia artificial.

Trabajo en conjunto para llevar un estándar para la industria a la hiperescalabilidad

Microsoft, NVIDIA y Ingrasys (una empresa subsidiaria de Foxconn) colaboraron para diseñar y desarrollar la plataforma HGX-1. Las empresas la distribuyen como parte de la contribución del proyecto Olympus de Microsoft al proyecto Open Compute, cuya misión es aplicar los beneficios del código abierto al hardware e incrementar rápidamente el ritmo de la innovación en los centros de datos y más.

Compartir el diseño de referencia con la vasta comunidad del proyecto Open Compute, significa que los empresarios pueden comprar e implementar fácilmente el mismo diseño en sus propios centros de datos.

NVIDIA se une al proyecto Open Compute

NVIDIA se une al proyecto Open Compute para ayudar a impulsar la inteligencia artificial y la innovación en el centro de datos. La empresa planea continuar trabajando con Microsoft, Ingrasys y otros miembros para avanzar en las plataformas de computación listas para inteligencia artificial para los proveedores de servicios de nube y otros clientes de centros de datos.

Pin It on Pinterest

Share This