La Conferencia de tecnología GPU (GTC) de Nvidia está en marcha. Durante el discurso de apertura del CEO Jensen Huang, se revelaron los detalles de la arquitectura Hopper de próxima generación de Nvidia. Aunque es una GPU centrada en la IA y el centro de datos, nos da algunas pistas de lo que podemos esperar de la arquitectura de GPU Ada Lovelace orientada a los juegos de Nvidia, que se lanzará más adelante en 2022.
El H100 es un gran paso adelante sobre el buque insignia actual A100. La GPU completa contiene 80 mil millones de transistores o 26 mil millones más que el A100. Se basa en un proceso personalizado TSMC de 4 nm. Admite hasta 80 GB de memoria HBM 3 y ofrece hasta 3 TB/s de ancho de banda.
El H100 es compatible con PCIe 5.0 y NVLink para conectar varias GPU juntas. Puede ofrecer 2000 TFLOPS de rendimiento FP16 y 1000 TFLOPS de TF32, el triple que el A100. Hopper presenta un nuevo conjunto de instrucciones llamado DPX. Está diseñado para acelerar el rendimiento en campos tan variados como el diagnóstico de enfermedades, la simulación cuántica, el análisis gráfico y las optimizaciones de enrutamiento.
La GPU H100 completa incluye 18432 núcleos CUDA y 576 núcleos Tensor. Eso se compara con el A100 con 8192 y 512 respectivamente, aunque por ahora no todos los núcleos están desbloqueados, presumiblemente para maximizar los rendimientos. Los relojes centrales tampoco están finalizados. A pesar de estar fabricado en un nodo tan avanzado, la versión SXM del H100 viene con un TDP de 700W. Así es, siete. centenar. vatios
El H100 está configurado para ser un monstruo de una tarjeta, pero ¿es relevante para los jugadores de PC? La respuesta es algo así. H100 tiene que ver con el rendimiento informático y no con los gráficos, pero podemos tomar algunos fragmentos de información y usarlos para predecir cómo se verá la versión de juego.
El cambio a un nodo TSMC de 4 nm personalizado es un gran paso adelante con respecto al proceso Samsung de 8 nm utilizado para la serie RTX-30. Es probable que también se use para las tarjetas de la serie RTX-40. También cabe destacar el soporte para PCIe 5.0. Aunque por sí solo no se espera que brinde ningún beneficio de rendimiento real sobre PCIe 4.0, es posible que lo haga sobre PCIe 3.0, que todavía se usa ampliamente en muchos sistemas de juegos.
(Crédito de la imagen: Nvidia)
Pero quizás la pepita más grande de todas es el sorprendente TDP de 700 W de la configuración de gama alta. ¡Solo mira el VRM de esa tarjeta! 700 W para un producto de centro de datos es algo que se puede administrar, pero si obtenemos algo así para un RTX 4090 insignia, nos sorprendería. Lamentablemente, continúan surgiendo rumores de fuertes aumentos en el consumo de energía. Incluso 500 W es un salto y significa que las tarjetas gráficas de cuatro ranuras pueden convertirse en la norma, de todos modos en el extremo superior del mercado.
Nvidia todavía está trabajando en el H100. Si sus características principales se comparten con la serie RTX 40, es justo decir que las tarjetas de gama alta serán atractivas y hambrientas de energía, pero repletas de tecnología y mucho más rápidas que la RTX 3090 (y la RTX 3090 Ti que se lanzará próximamente). ). AMD competirá con sus tarjetas basadas en RDNA3 y se perfila como una gran batalla, en la que el rendimiento total es claramente una prioridad para ambas compañías a expensas de la eficiencia energética. ¡No podemos esperar!