新聞中心

        EEPW首頁 > 智能計算 > 業界動態 > 國產大模型 DeepSeek-V3 開源:6710 億參數自研 MoE,性能和 GPT-4o 不分伯仲

        國產大模型 DeepSeek-V3 開源:6710 億參數自研 MoE,性能和 GPT-4o 不分伯仲

        作者: 時間:2024-12-27 來源:IT之家 收藏

        12 月 27 日消息,“深度求索”官方公眾號昨日(12 月 26 日)發布博文,宣布上線并同步開源 模型,用戶可以登錄官網 chat.deepseek.com,與最新版 V3 模型對話。

        本文引用地址:http://www.104case.com/article/202412/465844.htm

        援引博文介紹, 是一個 6710 億參數的專家混合(MoE,使用多個專家網絡將問題空間劃分為同質區域)模型,激活參數 370 億,在 14.8 萬億 token 上進行了預訓練。

        多項評測成績超越 Qwen2.5-72B 和 Llama-3.1-405B 等開源模型,性能比肩 GPT-4o 和 Claude-3.5-Sonnet 等世界頂尖閉源模型。

        該模型在知識、長文本、代碼、數學和中文等方面均取得顯著進步,尤其在算法代碼和數學方面表現突出,生成速度提升至 60 TPS,相比 V2.5 提升了 3 倍。

        官方開源了原生 FP8 權重,并提供 BF16 轉換腳本,方便社區適配和應用。SGLang、LMDeploy、TensorRT-LLM 和 MindIE 已支持 V3 模型推理。

        更新上線的同時,DeepSeek 還調整了 API 服務價格,模型 API 服務定價也將調整為每百萬輸入 tokens 0.5 元(緩存命中)/ 2 元(緩存未命中),每百萬輸出 tokens 8 元。

        官方還決定為全新模型設置長達 45 天的優惠價格體驗期:即日起至 2025 年 2 月 8 日,DeepSeek-V3 的 API 服務價格仍然會是大家熟悉的每百萬輸入 tokens 0.1 元(緩存命中)/ 1 元(緩存未命中),每百萬輸出 tokens 2 元,已經注冊的老用戶和在此期間內注冊的新用戶均可享受以上優惠價格。




        評論


        相關推薦

        技術專區

        關閉
        主站蜘蛛池模板: 太仆寺旗| 什邡市| 万源市| 辽阳县| 同仁县| 怀化市| 铁岭县| 呼和浩特市| 全椒县| 凤凰县| 潞城市| 额尔古纳市| 祁东县| 富源县| 陆河县| 攀枝花市| 安泽县| 华池县| 马龙县| 潜江市| 宜春市| 宿州市| 观塘区| 昭通市| 柳江县| 汤原县| 会泽县| 肃宁县| 红原县| 汾西县| 三穗县| 安新县| 肇庆市| 那曲县| 盐山县| 五大连池市| 湘阴县| 万宁市| 衡南县| 灌阳县| 双桥区|