新聞中心

        EEPW首頁 > 智能計算 > 業界動態 > 研華推出面向生成式AI的邊緣AI服務器解決方案

        研華推出面向生成式AI的邊緣AI服務器解決方案

        作者: 時間:2024-07-16 來源:EEPW 收藏

        全球工業物聯網廠商科技宣布,采用Phison的aiDAPTIV+專利技術,為生成式人工智能(Generative AI)提供開創性的解決方案。AIR-520 Edge AI Server采用AMD EPYC 7003系列處理器,集成了SQ ai100 AI SSD、NVIDIA RTX GPU卡、Edge AI SDK和NVIDIA AI Enterprise,提供了一個可立即部署的解決方案。

        本文引用地址:http://www.104case.com/article/202407/461076.htm

        大型語言模型(LLM)等工具正通過自動化數據組織、檢索和分析改變企業知識管理,提高生產力并改善決策。定制大型語言模型(LLM)提高了準確性,而邊緣訓練則增強了數據隱私屬性(成本相應提高)。該方案支持大型語言模型(LLM)微調配備1-4個顯卡和SQ AI100 AI SSD,供企業經濟高效地訓練大型語言模型(LLM),同時保護邊緣敏感數據安全。

        1721137177841201.png

        適用于不同應用的四種解決方案

        對此提供四種選擇:AIR-520-L13B/L33B/L70B和L70B-Plus,針對不同規模和應用量身定制。L13B非常適合聊天機器人和語言翻譯提高生產力和內容創作創新能力。L70B擅長專業領域的復雜數據分析和決策。此外,L70B-Plus配備了NVIDIA AI Enterprise軟件平臺,提供端到端的、可靠的優化AI SDK,提供長期支持和專家咨詢服務,保障業務場景中的高效部署。

        安裝簡單快捷,優化成本效益

        所有解決方案均包含SQ AI100 AI SSD,后者采用群聯(Phison)aiDAPTIV+技術。此系列SSD充當顯卡vRAM的擴展,使系統能夠使用最少的顯卡對大型語言模型(LLM)實現微調。這種方案不僅減輕了客戶的預算負擔,而且相比傳統的大型機架式會更加緊湊。AIR-520服務器專為各種邊緣AI應用設計,尺寸與臺式電腦相當,并且可以通過適當的附件安裝在機架上。憑借輕薄的設計,該產品可以實現在邊緣AI微調環境中的輕松部署,打消了客戶在空間和維護上的憂慮。

        通過軟件服務快速跟蹤的開發

        除了大型語言模型(LLM)微調功能外,還提供了帶有訓練工作室的邊緣AI SDK,預裝了Llama-2 13B/33B/70B模型,用于聊天機器人和數據分析等應用。此舉將簡化并加速通過AIR-520進行客戶專屬大型語言模型(LLM)模型訓練和推理評估工作的進程。此外,研華的DeviceOn提供OTA軟件/容器更新和遠程管理,促進高效的邊緣AI編排和長期維護。

        image.png

        產品特性:

        ●   采用AMD EPYC 7003處理器的服務器級性能,提供多達64個內核、768GB DRAM和四個PCle x16擴展插槽

        ●   高達768GB DDR4 3200 DRAM

        ●   支持4個PCIe x16擴展插槽

        ●   集成1200W PSU,可為兩塊NVIDIA L40S圖形卡供電

        面向生成式AI的AIR-520邊緣AI服務器方案早期樣品現已推出。



        評論


        相關推薦

        技術專區

        關閉
        主站蜘蛛池模板: 淮滨县| 玉环县| 南宁市| 乃东县| 尚义县| 阿尔山市| 仪征市| 介休市| 泗水县| 咸阳市| 佛教| 邯郸县| 通化县| 南昌县| 湖南省| 邵武市| 万荣县| 惠州市| 将乐县| 闻喜县| 呼伦贝尔市| 忻城县| 黑龙江省| 沙河市| 长顺县| 六安市| 镇宁| 蒙城县| 子洲县| 宿松县| 微博| 汤阴县| 武威市| 长丰县| 称多县| 沧源| 中阳县| 望奎县| 许昌市| 遂平县| 荔浦县|