加速當今時代的重要工作
NVIDIA A100 Tensor Core GPU 可針對 AI、數據分析和 HPC 應用場景,在不同規模下實現出色的加速,有效助力全球高性能彈性數據中心。NVIDIA A100 由 NVIDIA Ampere 架構提供支持,提供 40GB 和 80GB 兩種配置。作為 NVIDIA 數據中心平臺的引擎,A100 的性能比上一代產品提升高達 20 倍,并可劃分為七個 GPU 實例,以根據變化的需求進行動態調整。A100 80GB 將 GPU 內存增加了一倍,提供超快速的內存帶寬(每秒超過 2TB),可處理超大模型和非常龐大的數據集。
深度學習訓練
● 當今的 AI 模型面臨著對話式 AI 等更高層次的挑戰,這促使其復雜度呈爆炸式增長。訓練這些模型需要大規模的計算能力和可擴展性。
● NVIDIA A100 的 Tensor Core 借助 Tensor 浮點運算 (TF32) 精度,可提供比上一代 NVIDIA Volta 高 20 倍之多的性能,并且無需更改代碼;若使用自動混合精度和 FP16,性能可進一步提升 2 倍。與 NVIDIA? NVLink?、NVIDIA NVSwitch?、PCI 4.0、NVIDIA? Mellanox? InfiniBand? 和 NVIDIA Magnum IO? SDK 結合使用時,可擴展到數千個 A100 GPU。
● 2048 個 A100 GPU 可在一分鐘內大規模處理 BERT 之類的訓練工作負載,這是訓練時間的世界紀錄。 對于具有龐大數據表的超大型模型(例如用于推薦系統的 DLRM),A100 80GB 可為每個節點提供高達 1.3 TB 的統一顯存,而且速度比 A100 40GB 快高達 3 倍。
● NVIDIA 產品的領先地位在 MLPerf 這個行業級 AI 訓練基準測試中得到印證,創下多項性能紀錄。

深度學習推理
● A100 引入了突破性的功能來優化推理工作負載。它能在從 FP32 到 INT4 的整個精度范圍內進行加速。多實例 GPU (MIG) 技術允許多個網絡同時基于單個 A100 運行,從而優化計算資源的利用率。在 A100 其他推理性能增益的基礎之上,僅結構化稀疏支持一項就能帶來高達兩倍的性能提升。
● 在 BERT 等先進的對話式 AI 模型上,A100 可將推理吞吐量提升到高達 CPU 的 249 倍。
● 在受到批量大小限制的極復雜模型(例如用于先進自動語音識別用途的 RNN-T)上,顯存容量有所增加的 A100 80GB 能使每個 MIG 的大小增加一倍(達到 10GB),并提供比 A100 40GB 高 1.2 倍的吞吐量。
● NVIDIA 產品的出色性能在 MLPerf 推理測試中得到驗證。A100 再將性能提升了 20 倍,進一步擴大了這種性能優勢。
高性能計算
● 為了獲得新一代的發現成果,科學家們希望通過模擬方式來更好地了解我們周圍的世界。
● A100 的雙精度 Tensor Core 為 HPC 領域帶來了自 GPU 中的雙精度計算技術推出以來極其重要的里程碑。借助 HBM2e 每秒超過 2 TB 的帶寬和大容量內存,科研人員可以在 A100 上將原本要花費 10 小時的雙精度模擬過程縮短到 4 小時之內。HPC 應用程序還可以利用 TF32 將單精度、密集矩陣乘法運算的吞吐量提高高達 10 倍。
● 對于具有超大型數據集的 HPC 應用程序,內存容量增加的 A100 80GB 可在運行材料模擬 Quantum Espresso 時將速度提升高達兩倍。極大的內存容量和超快速的內存帶寬使 A100 80GB 非常適合用作新一代工作負載的平臺。
高性能數據分析
● 數據科學家需要能夠分析和可視化龐大的數據集,并將其轉化為寶貴見解。但是,由于數據集分散在多臺服務器上,橫向擴展解決方案往往會陷入困境。
● 搭載 A100 的加速服務器可以提供必要的計算能力,并能利用大容量內存以及通過 NVIDIA? NVLink? and NVSwitch? 實現的超快速內存帶寬(超過每秒 2 TB)和可擴展性妥善處理工作負載。通過結合 InfiniBand, NVIDIA Magnum IO? 和 RAPIDS? 開源庫套件(包括用于執行 GPU 加速的數據分析的 RAPIDS Accelerator for Apache Spark),NVIDIA 數據中心平臺能夠加速這些大型工作負載,并實現超高的性能和效率水平。
● 在大數據分析基準測試中,A100 80GB 的速度比 CPU 快 83 倍,并且比 A100 40GB 快兩倍,因此非常適合處理數據集大小激增的新型工作負載。

企業就緒,高效利用
● A100 結合 MIG 技術可以更大限度地提高 GPU 加速的基礎設施的利用率。借助 MIG,A100 GPU 可劃分為多達 7 個獨立實例,讓多個用戶都能使用 GPU 加速功能。使用 A100 40GB GPU,每個 MIG 實例最多可以分配 5GB,而隨著 A100 80GB 增加的 GPU 內存容量,每個實例將增加一倍達到10GB。
● MIG 與 Kubernetes、容器和基于服務器虛擬化平臺的服務器虛擬化配合使用。MIG 可讓基礎設施管理者為每項作業提供大小合適的 GPU,同時確保服務質量 (QoS),從而擴大加速計算資源的影響范圍,以覆蓋每位用戶。

強川科技 — 專業IT綜合服務提供商 【業務領域:計算機硬件、系統軟件、系統集成、IT運維外包】
成都強川公司英偉達/NVIDIA產品銷售團隊經過多年深耕與發展,至今已成功助力超過數千家中小企業的成長。一直以來, 我們的幾十位銷售顧問和技術專家,堅持以傾聽您的需求和愿望為工作核心,以豐富的方案經驗、敏銳的行業洞察和過硬的IT技術,為您提供高匹配度的解決方案,幫您做出更明智的決定。