站長之家(ChinaZ.com)11月14日 消息:昨日晚間,英偉達(dá)Nvidia 推出了 H200,這是一款專為訓(xùn)練和部署生成式人工智能模型的圖形處理單元(GPU)。
它基于 NVIDIA Hopper 架構(gòu),具有先進(jìn)的內(nèi)存和處理能力,可處理海量的數(shù)據(jù)用于生成式 AI 和高性能計(jì)算工作負(fù)載。 H200是第一款具有 HBM3e 內(nèi)存的 GPU,提供了141GB 的內(nèi)存和4.8TB/s 的內(nèi)存帶寬,幾乎是 NVIDIA H100Tensor Core GPU 容量的兩倍,內(nèi)存帶寬也增加了1.4倍。
在 AI 領(lǐng)域,業(yè)務(wù)需要使用大型語言模型來滿足各種推理需求。H200在處理類似 Llama2這樣的大型語言模型時(shí),相比 H100GPU 的推理速度提高了2倍。 對(duì)于高性能計(jì)算應(yīng)用,內(nèi)存帶寬對(duì)于提高數(shù)據(jù)傳輸速度、減少處理瓶頸至關(guān)重要。H200的更高內(nèi)存帶寬確保高效地訪問和操作數(shù)據(jù),使得與 CPU 相比,處理時(shí)間快了110倍。
此外,H200的能效和總擁有成本也有所降低。這項(xiàng)前沿技術(shù)不僅提供了卓越的性能,而且功耗與 H100相同。
預(yù)計(jì) H200將在2024年第二季度開始發(fā)貨。
Nvidia 表示,H200將兼容 H100,這意味著已經(jīng)在使用先前模型進(jìn)行訓(xùn)練的人工智能公司無需更改其服務(wù)器系統(tǒng)或軟件即可使用新版本。
(舉報(bào))