NVIDIA H100 141GB NVL Original Nu tilgængelig: Omdefinering af AI -ydeevne i skala
SHENZHEN, Kina - juli 2025 - I et gennembrud for AI og stor sprogmodel computing har Nvidia lanceretH100 141GBNVL Original, en næste generations løsning designet til at skubbe grænserne for AI-ydeevne, hukommelseskapacitet og energieffektivitet. Bygget med virksomhedsskala AI-arbejdsbelastning i tankerne, er H100 NVL 141 GB-modulet skræddersyet til at imødekomme kravene i dagens banebrydende datacentre, sprogmodeltræning og inferencing med en hidtil uset hastighed og skala.
3x hurtigere LLM -inferens - drevet af NVL -arkitektur
I modsætning til standard SXM eller PCIe GPU'er er H100 NVL en unik formfaktor med to H100 GPU'er, der er tilsluttet via NVLink og pakket som en dobbelt-GPU-opløsning med 141 GB delt HBM3-hukommelse og en hukommelsesbåndbredde på over 7TB/s. Dette gør det til den ideelle GPU til:
GPT-3, GPT-4 og LLAMA 3-træning
Storskala transformer inferens arbejdsbelastning
Multimodale AI-opgaver (visionsprog, tale osv.)
Ifølge NVIDIAs interne test giver H100 NVL op til 12x hurtigere inferens for store sprogmodeller sammenlignet med A100 80GB.
We use cookies to offer you a better browsing experience, analyze site traffic and personalize content. By using this site, you agree to our use of cookies.
Privacy Policy