雖然 AMD 曾嘗試在消費級 VEGA GPU 產品導入 HBM 記憶體,不過畢竟受限高成本以及在消費應用意義不大,最終進入 RDNA 世代後又改為主流的 GDDR 記憶體,但當前 HBM 記憶體在運算級領域仍是相當熱門的,例如 NVIDIA 的 A100 GPU 或是富士通的 A64FX 皆搭配 HBM2 記憶體,而三星半導體宣布在新一代的 HBM-PIM 記憶體導入 AI 運算,強化數據中心、 HPC 的大規模數據處理。
▲ HBM-PIM 的 AI 並非用於系統 AI 運算,而是做為減少數據在記憶體之間不必要的存取與移動行為
三星強調其 HBM-PIM 是業界首創針對 AI 工作負載開發的可程式化 PIM 解決方案,並且不需要進行軟硬體變更,可直接進行使用。 HBM-PIM 旨在減少現行依據 von Neumann 架構使數據在記憶體之間頻繁傳輸造成的系統緩慢, HBM-PIM 透過在儲存子單元整合針對 DRAM 最佳化的 AI 引擎,事先針對資料傳輸進行處理,減少數據的不必要傳輸,相較當前三星 HBM2 Aquabolt 能提升一倍的性能,同時減少 70% 耗電。
三星當前已經將 HBM-PIM 提供給 AI 解決方案夥伴於 AI 加速器進行測試,預計 2021 年初完成驗證。
0 則回應