Komplexné riešenie dátového centra na kľúč urýchľuje dodávku pre kritické podnikové prípady a eliminuje zložitosť budovania veľkého klastra, čo predtým bolo možné len prostredníctvom intenzívneho ladenia návrhu a časovo náročnej optimalizácie superpočítačov.

Najvyššia výpočtová hustota

S 32 NVIDIA HGX H100/H200 8-GPU, 4U kapalinou chladených serverov (256 GPU) v 5 rackoch

  • Zdvojnásobenie hustoty výpočtov pomocou vlastného riešenia kvapalinového chladenia Supermicro s až 40% úsporou nákladov na elektrinu pre dátové centrum
  • 256 GPU NVIDIA H100/H200 v jednej škálovateľnej jednotke
  • 20 TB HBM3 s H100 alebo 36 TB HBM3e s H200 v jednej škálovateľnej jednotke
  • 1:1 networking ku každému GPU pre umožnenie NVIDIA GPUDirect RDMA a Storage pre trénovanie veľkých jazykových modelov s až triliónmi parametrami
  • Prispôsobiteľná infraštruktúra úložiska pre dátové potrubie AI s poprednými možnosťami paralelného súborového systému
  • Pripravené na softvér NVIDIA AI Enterprise

 

Preverený design

 S 32 NVIDIA HGX H100/H200 8-GPU, 8U vzduchom chladených serverov (256 GPU) v 9 rackoch

  • Osvedčená špičková architektúra pre nasadenie infraštruktúry AI vo veľkom meradle
  • 256 GPU NVIDIA H100/H200 v jednej škálovateľnej jednotke
  • 20 TB HBM3 s H100 alebo 36 TB HBM3e s H200 v jednej škálovateľnej jednotke
  • 1:1 sieťovanie ku každému GPU pre umožnenie NVIDIA GPUDirect RDMA a Storage pre trénovanie veľkých jazykových modelov s až triliónmi parametrami
  • Prispôsobiteľná infraštruktúra úložiska pre dátové potrubie AI s poprednými možnosťami paralelného súborového systému
  • Pripravené na softvér NVIDIA AI Enterprise

 

Inferencie v škále cloudu

S 256 NVIDIA GH200 Grace Hopper Superčipy, 1U MGX servery v 9 rackoch

  • Zjednotená pamäť GPU a CPU pre cloudové vysokoobjemové inferencie s nízkou latenciou a vysokou veľkosťou dávky
  • 1U chladené vzduchom systémy NVIDIA MGX v 9 rackoch, 256 superčipov NVIDIA GH200 Grace Hopper v jednej škálovateľnej jednotke
  • Až 144 GB HBM3e + 480 GB LPDDR5X, dostatok kapacity na umiestnenie modelu s viac ako 70B parametrami do jedného uzla
  • Networking bez blokovania 400 Gb/s InfiniBand alebo Ethernet pripojené k sieťovej infraštruktúre typu spine-leaf
  • Prispôsobiteľná infraštruktúra úložiska pre AI dátové pipeline s poprednými možnosťami paralelného súborového systému
  • Pripravené na softvér NVIDIA AI Enterprise

 

Chcete sa dozvedieť viac?

Neváhajte sa obrátiť na náš obchodný tím, ktorý vám poskytne kompletné informácie a podporu.