Root NationBalitabalita sa ITNVIDIA ipinakilala ang DGX GH200 supercomputer para sa pagpapaunlad ng AI

NVIDIA ipinakilala ang DGX GH200 supercomputer para sa pagpapaunlad ng AI

-

NVIDIA inihayag ang isang bagong klase ng mga supercomputer na may malaking halaga ng memorya - ang supercomputer NVIDIA DGX batay sa mga superchip NVIDIA GH200 Grace Hopper at mga switch system NVIDIA NVLink. Ito ay idinisenyo upang bumuo ng mga susunod na henerasyong modelo para sa mga generative na aplikasyon AI, mga sistema ng rekomendasyon at mga workload ng pagsusuri ng data.

Napakalaking espasyo ng memorya NVIDIA Ang DGX GH200 ay gumagamit ng NVLink connectivity technology kasama ang NVLink Switch System para pagsamahin ang 256 GH200 superchips, na nagreresulta sa isang GPU. Nagbibigay ito ng 1 exaflop ng performance at 144 TB ng shared memory, halos 500 beses na mas mataas kaysa sa nakaraang henerasyon NVIDIA DGX A100, na ipinakilala noong 2020.

- Advertisement -

"Generative AI, ang mga malalaking modelo ng wika at mga sistema ng tagapagrekomenda ay ang mga digital na makina ng modernong ekonomiya, sabi ng tagapagtatag at CEO NVIDIA Jensen Huang. – Pinagsasama ng DGX GH200 AI supercomputers ang makabagong pinabilis na computing at mga teknolohiya sa networking NVIDIAupang palawakin ang mga hangganan ng AI".

Tulad ng iniulat sa isang press release sa website ng kumpanya, inalis ng GH200 superchips ang pangangailangan para sa isang tradisyonal na koneksyon sa CPU-GPU PCIe. Pinagsasama nila ang processor NVIDIA Grace at GPU na nakabatay sa braso NVIDIA H100 Tensor Core sa isang kaso. Pinapataas nito ang bandwidth sa pagitan ng GPU at CPU ng 7 beses, makabuluhang binabawasan ang pagkonsumo ng kuryente at nagbibigay ng 600 GB ng GPU Hopper architecture para sa mga bagong supercomputer. Ang arkitektura ng DGX GH200 ay nagbibigay ng 48 beses na mas NVLink bandwidth kaysa sa nakaraang henerasyon.

Inaasahan ang Google Cloud meta na Microsoft ay isa sa mga unang makakakuha ng access sa DGX GH200 at tuklasin ang mga kakayahan nito sa pagbuo ng mga AI workload. Nilalayon din ng manufacturer na ibigay ang disenyo ng DGX GH200 bilang sample sa mga cloud service provider para maiangkop nila ito para sa kanilang imprastraktura.

"Ang paglikha ng mga advanced na generative na modelo ay nangangailangan ng mga makabagong diskarte sa artificial intelligence infrastructure," sabi ng vice president ng computing sa Google Cloud Mark Lohmeyer. "Ang bagong sukat ng NVLink at ang Grace Hopper superchip memory ay tumutugon sa mga pangunahing bottleneck sa malakihang AI, at inaasahan naming tuklasin ang potensyal nito para sa Google Cloud at sa aming mga generative AI na inisyatiba."

Corporate Vice President para sa Azure Infrastructure sa Microsoft Nabanggit ni Girish Bablani ang potensyal ng DGX GH200 para sa pagtatrabaho sa mga terabyte na dataset, na magbibigay-daan sa mga developer na magsagawa ng pananaliksik sa mas malalaking sukat at sa pinabilis na bilis.

Lumilikha din ang kumpanya ng isang supercomputer NVIDIA DGX GH200-based na Helios para sa mga researcher at development team nito. Magkakaroon ito ng apat na DGX GH200 system, at ang bawat isa ay magkakaugnay ng isang Quantum-2 InfiniBand network upang mapataas ang data throughput para sa pagsasanay ng malalaking modelo ng AI. Kasama sa Helios ang 1024 na Grace Hopper superchips at inaasahang magiging operational sa katapusan ng taon.

Software NVIDIA Nagbibigay ang Base Command ng AI workflow management, enterprise-grade cluster management, mga library na nagpapabilis ng compute, storage, at network infrastructure, at system software na na-optimize para sa AI workloads. Kasama rin ang AI Enterprise software, na nagbibigay ng higit sa 100 frameworks, pre-trained na mga modelo, at development tool upang pasimplehin ang pagbuo at pag-deploy ng production AI, kabilang ang generative AI AI, computer vision, speech AI at marami pang iba.

- Advertisement -

Mga supercomputer NVIDIA Ang DGX GH200 ay magiging available sa katapusan ng taon.

Basahin din: