適用于所有企業的人工智慧推論與主流運算技術
運用NVIDIA A30 Tensor核心GPU,為各種企業工作負載提供加速效能。這款GPU搭載NVIDIA Ampere架構Tensor核心與多執行個體GPU (MIG),可安全地加速各種工作負載,包括大規模人工智慧推論和高效能運算(HPC)應用程式。A30采用PCIe規格,結合快速記憶體頻寬和低耗能的優點,是主流伺服器的最佳選擇,可建立彈性資料中心,并讓企業發揮最大價值。
深度學習訓練
● 訓練人工智慧模型處理更高一級的挑戰(如對話式人工智慧),需要極強大的運算和擴充能力。
● 若使用精度為Tensor Float (TF32)的NVIDIA A30 Tensor核心 可在完全不變更程式碼的情況下,提供比NVIDIA T4高10倍的效能,若使用自動混合精度和FP16,還可進一步將效能提高2倍,且記憶體輸送量總共提升20倍。與NVLink ?、第四代PCIe、NVIDIA網路和NVIDIA Magnum IO ? SDK搭配使用時,還可以擴充到使用數千個GPU。
● Tensor 核心和MIG 讓A30 能夠全天動態應用于工作負載。A30 可在需求達到高峰時用于產生推論,而部分GPU 可以重新調整用途,在離峰期間快速重新訓練這些相同的模型。
● NVIDIA在人工智慧訓練的業界級基準測試 MLPerf中,創下多項效能記錄。

深度學習推理
● A30 帶來創新功能以最佳化推論工作負載。從FP64、TF32 到INT4,加速整個精度范圍。A30 每個GPU 最多可支援四個MIG,讓多個網路能夠在安全的硬體分割區中同時運作,且具有服務品質保障(QoS)。除了A30 提升的其他推論效能以外,結構化稀疏支援可提供高達2 倍的效能。
● NVIDIA領先業界的人工智慧效能已在 MLPerf推論.中得到證實。A30結合了NVIDIA Triton ?推論伺服器輕松就能大規模部署人工智慧,可為各企業帶來突破性效能。
高性能計算
● 為了推進新一代的發現,科學家需要模擬技術以更透徹地了解我們周圍的世界。
● NVIDIA A30 搭載FP64 NVIDIA Ampere 架構Tensor 核心,自GPU 問世以來,在高效能運算方面達到了最大進展。此外還結合了24GB 的GPU 記憶體和每秒933GB (GB/秒) 的頻寬,讓研究人員可以快速解決雙精度計算的問題。在執行單精度的密集矩陣乘法作業時,高效能運算應用程式還可以利用TF32,提供更高的輸送量。
● 藉由結合FP64 Tensor 核心和MIG,研究機構便能安全地分割GPU,讓多名研究人員能夠使用運算資源,確保服務品質保障(QoS) 并達到最高的GPU 使用率。部署人工智慧的企業可以在需求達到高峰時使用A30 的推論功能,然后在離峰期間將相同的運算伺服器重新用于高效能運算和人工智慧訓練工作負載。

高效能資料分析
● 資料科學家要能夠分析、視覺化,并將龐大資料集轉換成深入分析。但是,由于這些資料集分散在多個伺服器上,經常無法實行擴充解決方案。
● 使用A30的加速伺服器同時搭載大型HBM2記憶體、每秒933GB (TB/秒)的記憶體頻寬以及 NVLink —的擴充能力,可提供處理這些工作負載所需的運算能力。NVIDIA資料中心平臺結合了NVIDIA InfiniBand、NVIDIA Magnum IO 以及RAPIDS ?開放原始碼函式庫套件,包括適用于Apache Spark的RAPIDS加速器,能夠以前所未有的效能與效率,加速這些龐大的工作負載。

強川科技 — 專業IT綜合服務提供商 【業務領域:計算機硬件、系統軟件、系統集成、IT運維外包】成都強川公司英偉達/NVIDIA產品銷售團隊經過多年深耕與發展,至今已成功助力超過數千家中小企業的成長。一直以來, 我們的幾十位銷售顧問和技術專家,堅持以傾聽您的需求和愿望為工作核心,以豐富的方案經驗、敏銳的行業洞察和過硬的IT技術,為您提供高匹配度的解決方案,幫您做出更明智的決定。