SHENZHEN, Kina - juli 2025 - I et gennembrud for AI og stor sprogmodel computing har Nvidia lanceretH100 141GBNVL Original, en næste generations løsning designet til at skubbe grænserne for AI-ydeevne, hukommelseskapacitet og energieffektivitet. Bygget med virksomhedsskala AI-arbejdsbelastning i tankerne, er H100 NVL 141 GB-modulet skræddersyet til at imødekomme kravene i dagens banebrydende datacentre, sprogmodeltræning og inferencing med en hidtil uset hastighed og skala.
3x hurtigere LLM -inferens - drevet af NVL -arkitektur
I modsætning til standard SXM eller PCIe GPU'er er H100 NVL en unik formfaktor med to H100 GPU'er, der er tilsluttet via NVLink og pakket som en dobbelt-GPU-opløsning med 141 GB delt HBM3-hukommelse og en hukommelsesbåndbredde på over 7TB/s. Dette gør det til den ideelle GPU til:
GPT-3, GPT-4 og LLAMA 3-træning
Storskala transformer inferens arbejdsbelastning
Multimodale AI-opgaver (visionsprog, tale osv.)
Ifølge NVIDIAs interne test giver H100 NVL op til 12x hurtigere inferens for store sprogmodeller sammenlignet med A100 80GB.
Vi bruger cookies til at tilbyde dig en bedre browsingoplevelse, analysere trafik på webstedet og tilpasse indhold. Ved at bruge denne side accepterer du vores brug af cookies.
Privatlivspolitik