英特爾支持 AI 工作站配備新的 GPU 和 AI 加速器
在 Computex 2025 上,英特爾發布了其 AI 聚焦硬件組合的大規模更新,鞏固了其在工作站和數據中心市場的地位。隨著 Arc Pro B 系列 GPU 和第三代 Gaudi AI 加速器的推出,英特爾正在將專業級的 AI 計算帶給更廣泛的開發者、創作者和企業用戶。
本文引用地址:http://www.104case.com/article/202505/470883.htm
Arc Pro B 系列:針對邊緣 AI 工作流的加速器
新推出的 Arc Pro B60 和 B50 顯卡 基于英特爾 Xe2 架構,并配備了集成的 XMX 核心,英特爾為 AI 優化的向量和矩陣處理單元。這些顯卡是為建筑、工程和創意行業的 AI 推理和設計工作負載而專門設計的。
這兩款顯卡都支持 PCIe 5.0 x8 連接和容器化的 Linux AI 部署堆棧。
旗艦級的 Arc Pro B60 配備了 20 個 Xe 核心、160 個 XMX 引擎,以及通過 192 位總線連接的 24 GB GDDR6 內存,提供 456 GB/s 的內存帶寬和 197 TOPS(INT8)性能。B60 的功耗在 120 W 到 200 W 之間,支持多顯卡擴展,并獲得了 SolidWorks、Maya 和 Blender 等主要 ISV 平臺的認證。
同時,B50 提供了更節能的解決方案,功耗為 70W,擁有 16 個 Xe 核心 和 128 個 XMX 引擎,提供 170 TOPS。它配備了 16GB 的 GDDR6 內存,通過 128 位總線(帶寬 224 GB/s),使其適用于輕量級 AI 任務,如圖像上采樣或緊湊型工作站中的 CAD 加速。
Gaudi 3:企業級 AI 的重型選手
在高端市場,英特爾推出了其 Gaudi 3 加速器 ,這是一款雙芯片處理器,旨在處理生成式 AI 訓練和大規模實時推理的需求?;谂_積電的 5 納米工藝,Gaudi 3 (白皮書鏈接) 擁有 8 個矩陣乘法引擎、64 個張量處理器核心,以及 128GB 的 HBM2e 內存,帶寬為 3.7 TB/s。
其計算能力達到 1.8 PFLOPs,適用于 FP8 和 BF16 工作負載,與 Gaudi 2 相比,在架構上有顯著改進,例如 MME 數量翻倍、內存帶寬提升 1.5 倍,以及能效提升 40%。英特爾聲稱,Gaudi 3 在 LLM 訓練中比英偉達的 H100 高出 1.7 倍,并在 Llama2-13 B 等關鍵工作負載中的推理效率高出 2.3 倍。
這些液冷系統針對分布式 AI 集群的持續性能進行了優化。
Gaudi 3 的一個關鍵差異化是其集成網絡。每顆芯片包含 24 個支持 RDMA 的 200 Gbps 以太網端口,支持 All2All 擴展拓撲,具有 1.05 TB/s 的雙向節點內帶寬和 150 GB/s 的節點間擴展。這種基于開放以太網的織物避免了供應商鎖定,并簡化了在不使用專有交換機的情況下擴展到最多 512 個節點。
Intel AI Assistant Builder
補充新的芯片,Intel 的 AI 助手構建器已退出測試版,現可在 GitHub 上使用 。這個開放框架允許開發者在 Intel 系統的本地構建和運行輕量級 AI 代理。結合容器化的 Linux 支持和 ISV 認證的驅動程序,Intel 的軟件生態系統正緊密地與其硬件路線圖保持一致。
Arc Pro 系列支持 Windows 上的消費者和專業驅動程序堆棧,而 Gaudi 3 則利用了 Habana Synapse AI SDK,該 SDK 包括對 PyTorch、TensorFlow 和 ONNX 的原生支持。這些工具針對 MME 和 TPC 引擎的架構特點進行了優化,并能在計算管道中混合工作負載實現粒度調度。
雖然 Nvidia 仍然主導 AI 計算領域,但 Intel 的新 GPU 和 AI 加速器提供了一個有吸引力的替代方案,特別是對于那些尋求開放標準、靈活擴展和高效大型模型部署的客戶。預計在 2025 年下半年實現商業可用性,Intel 的 AI 加速產品組合似乎已準備好挑戰現有市場領導者。
評論