La NVIDIA H100 es una GPU de alto re­n­di­mie­n­to, diseñada es­pe­cí­fi­ca­me­n­te para apli­ca­cio­nes de IA, apre­n­di­za­je profundo y HPC. La GPU H100 se basa en la in­no­va­do­ra ar­qui­te­c­tu­ra Hopper y cuenta con potentes núcleos Tensor de cuarta ge­ne­ra­ción, que ofrecen un re­n­di­mie­n­to ex­ce­p­cio­nal. Gracias a su gran capacidad de cálculo, la NVIDIA H100 es ideal para entrenar redes neu­ro­na­les complejas, cargas de trabajo en la nube en las que se manejan grandes volúmenes de datos y si­mu­la­cio­nes exigentes de HPC.

Ca­ra­c­te­rí­s­ti­cas de la NVIDIA H100

La NVIDIA H100 ofrece un nivel de re­n­di­mie­n­to ex­ce­p­cio­nal basado en la novedosa ar­qui­te­c­tu­ra Hopper, la cual combina la te­c­no­lo­gía Tensor Core con un motor Tra­n­s­fo­r­mer para aumentar la capacidad de cálculo y acelerar si­g­ni­fi­ca­ti­va­me­n­te el en­tre­na­mie­n­to de modelos de IA. La GPU H100 está di­s­po­ni­ble en dos versiones: H100 SXM y H100 NVL.

Las dos versiones se di­fe­re­n­cian en su formato, re­n­di­mie­n­to, ancho de banda de la memoria y co­ne­c­ti­vi­dad. La H100 SXM está diseñada pri­n­ci­pa­l­me­n­te para se­r­vi­do­res de alta densidad y entornos hi­pe­re­s­ca­la­bles. En cambio, la H100 NVL está op­ti­mi­za­da para ranuras PCIe, lo que facilita su in­te­gra­ción en in­frae­s­tru­c­tu­ras de se­r­vi­do­res exi­s­te­n­tes. La siguiente tabla ofrece un análisis detallado de las ca­ra­c­te­rí­s­ti­cas de ambas versiones de la NVIDIA H100:

Ca­ra­c­te­rí­s­ti­ca NVIDIA H100 SXM NVIDIA H100 NVL
FP64 34 TFLOPS 30 TFLOPS
Núcleo Tensor FP64 67 TFLOPS 60 TFLOPS
FP32 67 TFLOPS 60 TFLOPS
Núcleo Tensor TF32 989 TFLOPS 835 TFLOPS
Núcleo Tensor BFLOAT16 1979 TFLOPS 1671 TFLOPS
Núcleo Tensor FP16 1979 TFLOPS 1671 TFLOPS
Núcleo Tensor FP8 3958 TFLOPS 3341 TFLOPS
Núcleo Tensor INT8 3958 TOPS 3341 TOPS
Memoria de la GPU 80 GB 94 GB
Ancho de banda de la memoria de la GPU 3,35 TB/s 3,9 TB/s
De­co­di­fi­ca­dor 7 NVDEC, 7 JPEG 7 NVDEC, 7 JPEG
Potencia máxima de diseño térmico (TDP) 700 W (co­n­fi­gu­ra­ble) 350-400 W (co­n­fi­gu­ra­ble)
GPU de múltiples in­s­ta­n­cias (MIG) Hasta 7 MIG con 10 GB cada una Hasta 7 MIG con 12 GB cada una
Formato SXM PCIe de dos ranuras con re­fri­ge­ra­ción de aire
Interfaz NVIDIA NVLink 900 GB/s, PCIe Gen5: 120 GB/s NVIDIA NVLink: 600 GB/s, PCIe Gen5 128 GB/s
Opciones de servidor Socios de NVIDIA HGX H100 y sistemas ce­r­ti­fi­ca­dos por NVIDIA con 4 u 8 GPU, NVIDIA DGX H100 con 8 GPU Socios y sistemas ce­r­ti­fi­ca­dos por NVIDIA con hasta 8 GPU
NVIDIA AI En­te­r­pri­se Co­m­ple­me­n­to opcional Incluido
Nota

TFLOPS (Tera Floating Point Operations per Second) es una unidad que mide la velocidad de pro­ce­sa­mie­n­to de un ordenador en cálculos de coma flotante. Un TFLOP equivale a un billón de ope­ra­cio­nes por segundo. De manera similar, la unidad TOPS (Tera Operations per Second) también mide el re­n­di­mie­n­to co­mpu­tacio­nal, pero en este caso se refiere a ope­ra­cio­nes con números enteros en lugar de cálculos en coma flotante.

Ventajas y de­s­ve­n­ta­jas de la NVIDIA H100

La NVIDIA H100 es una de las GPU más potentes del mercado y cuenta con múltiples te­c­no­lo­gías y funciones avanzadas. Estas son algunas de sus pri­n­ci­pa­les ventajas:

  • Re­n­di­mie­n­to de cálculo so­bre­sa­lie­n­te: la H100 ofrece un re­n­di­mie­n­to ex­ce­p­cio­nal en ope­ra­cio­nes con núcleos Tensor FP8 y FP16, lo que la convierte en una opción ideal para cargas de trabajo complejas y con gran volumen de datos, como los Modelos de Lenguaje Extensos (LLM). Además, la co­m­bi­na­ción de estos núcleos Tensor de cuarta ge­ne­ra­ción con el motor Tra­n­s­fo­r­mer mejora de manera si­g­ni­fi­ca­ti­va la efi­cie­n­cia en ope­ra­cio­nes de IA.
  • NVLink y NVSwitch: la NVIDIA H100 es co­m­pa­ti­ble con NVLink de cuarta ge­ne­ra­ción, lo que permite in­te­r­co­ne­c­tar múltiples GPU dentro de un servidor con un ancho de banda bi­di­re­c­cio­nal de 900 GB/s. Además, NVSwitch facilita la es­ca­la­bi­li­dad de clústeres.
  • GPU de in­s­ta­n­cias múltiples (MIG): el pro­ce­sa­dor gráfico puede dividirse en hasta siete in­s­ta­n­cias in­de­pe­n­die­n­tes de GPU, lo que permite ejecutar de manera si­mu­l­tá­nea varias cargas de trabajo con recursos dedicados. Así se optimiza la fle­xi­bi­li­dad y efi­cie­n­cia de la GPU en entornos de co­mpu­tación co­m­pa­r­ti­dos.
  • Co­mpu­tación co­n­fi­de­n­cial: incorpora funciones de seguridad para proteger la co­n­fi­de­n­cia­li­dad e in­te­gri­dad de los datos a lo largo de todo el pro­ce­sa­mie­n­to de las cargas de trabajo.
  • Memoria HBM3 y co­m­pa­ti­bi­li­dad con PCIe Gen5: con hasta 94 GB de memoria HBM3 y un ancho de banda de hasta 3,9 TB/s, la NVIDIA H100 ofrece una de las so­lu­cio­nes de al­ma­ce­na­mie­n­to más avanzadas para cargas de trabajo con grandes volúmenes de datos. Si se combina con PCIe Gen5, permite realizar tra­n­s­fe­re­n­cias de datos rápidas.

Sin embargo, este alto re­n­di­mie­n­to de la NVIDIA H100 tiene su co­n­tra­pa­r­ti­da: un precio elevado. De­pe­n­die­n­do del modelo, estas GPU pueden costar entre 30 000 y 40 000 euros (entre 35 000 y 45 000 dólares), lo que también encarece no­ta­ble­me­n­te su uso en entornos cloud frente a otras al­te­r­na­ti­vas. A ello se suma otro in­co­n­ve­nie­n­te: su di­s­po­ni­bi­li­dad limitada. Debido a la alta demanda, suelen darse con fre­cue­n­cia problemas de stock y largos tiempos de espera.

¿En qué ámbitos se utiliza la GPU NVIDIA H100?

La GPU NVIDIA H100 se ha diseñado es­pe­cí­fi­ca­me­n­te para cargas de trabajo de co­mpu­tación intensiva y destaca en apli­ca­cio­nes exigentes de in­te­li­ge­n­cia ar­ti­fi­cial (IA) y co­mpu­tación de alto re­n­di­mie­n­to (HPC). En la siguiente tabla, se resumen sus pri­n­ci­pa­les ámbitos de uso.

  • En­tre­na­mie­n­to de modelos de IA a gran escala: gracias a su gran potencia de pro­ce­sa­mie­n­to, esta GPU acelera de manera si­g­ni­fi­ca­ti­va el en­tre­na­mie­n­to de redes neu­ro­na­les complejas y Modelos de Lenguaje Extensos (LLM), como GPT o LLaMA.
  • In­fe­re­n­cia de IA en tiempo real: la H100 ejecuta modelos de IA ya en­tre­na­dos a grandes ve­lo­ci­da­des, lo que supone una ventaja en áreas como el pro­ce­sa­mie­n­to de lenguaje y el re­co­no­ci­mie­n­to de imágenes.
  • Entornos cloud y centros de datos: estos pro­ce­sa­do­res gráficos son la base de numerosos se­r­vi­do­res GPU al pro­po­r­cio­nar la potencia necesaria para cargas de trabajo complejas.
  • Co­mpu­tación de alto re­n­di­mie­n­to (HPC): los cálculos cie­n­tí­fi­cos y las si­mu­la­cio­nes se be­ne­fi­cian del alto re­n­di­mie­n­to FP64 de los pro­ce­sa­do­res gráficos H100.
  • IA ge­ne­ra­ti­va: la NVIDIA H100 es una he­rra­mie­n­ta perfecta para generar texto, imágenes y vídeos con modelos de IA. Su diseño permite procesar grandes volúmenes de datos de manera rápida y eficiente, algo clave para la IA ge­ne­ra­ti­va.
  • Análisis de datos: con las GPU Hopper, empresas de sectores como la logística o las finanzas pueden extraer pre­di­c­cio­nes y pro­nó­s­ti­cos precisos de grandes ca­n­ti­da­des de datos.

¿Qué al­te­r­na­ti­vas existen a la GPU H100?

Aunque la NVIDIA H100 es una de las GPU más potentes para IA y HPC, según el pre­su­pue­s­to o las ne­ce­si­da­des puede haber so­lu­cio­nes al­te­r­na­ti­vas más adecuadas, es­pe­cia­l­me­n­te en lo que se refiere a re­n­ta­bi­li­dad. Algunas de ellas son:

  • NVIDIA A100: aunque es el modelo anterior, sigue ofre­cie­n­do un re­n­di­mie­n­to sólido para en­tre­na­mie­n­to en IA, in­fe­re­n­cia, así como para HPC, con un coste más accesible.
  • NVIDIA A30: la A30 combina un alto re­n­di­mie­n­to con un precio co­m­pe­ti­ti­vo.
  • NVIDIA H200: una versión op­ti­mi­za­da de la NVIDIA H100, con mejoras como un mayor ancho de banda de la memoria.
  • Intel Gaudi 3: un ace­le­ra­dor de IA diseñado para ofrecer un gran re­n­di­mie­n­to en tareas de in­fe­re­n­cia de IA.
Nota

En nuestra guía “Co­m­pa­ra­ti­va de GPU para se­r­vi­do­res” hablamos en más detalle de los pro­ce­sa­do­res gráficos más populares en la ac­tua­li­dad.

Ir al menú principal