新聞中心

        EEPW首頁 > 智能計算 > 業界動態 > 國產大模型 DeepSeek-V3 開源:6710 億參數自研 MoE,性能和 GPT-4o 不分伯仲

        國產大模型 DeepSeek-V3 開源:6710 億參數自研 MoE,性能和 GPT-4o 不分伯仲

        作者: 時間:2024-12-27 來源:IT之家 收藏

        12 月 27 日消息,“深度求索”官方公眾號昨日(12 月 26 日)發布博文,宣布上線并同步開源 模型,用戶可以登錄官網 chat.deepseek.com,與最新版 V3 模型對話。

        本文引用地址:http://www.104case.com/article/202412/465844.htm

        援引博文介紹, 是一個 6710 億參數的專家混合(MoE,使用多個專家網絡將問題空間劃分為同質區域)模型,激活參數 370 億,在 14.8 萬億 token 上進行了預訓練。

        多項評測成績超越 Qwen2.5-72B 和 Llama-3.1-405B 等開源模型,性能比肩 GPT-4o 和 Claude-3.5-Sonnet 等世界頂尖閉源模型。

        該模型在知識、長文本、代碼、數學和中文等方面均取得顯著進步,尤其在算法代碼和數學方面表現突出,生成速度提升至 60 TPS,相比 V2.5 提升了 3 倍。

        官方開源了原生 FP8 權重,并提供 BF16 轉換腳本,方便社區適配和應用。SGLang、LMDeploy、TensorRT-LLM 和 MindIE 已支持 V3 模型推理。

        更新上線的同時,DeepSeek 還調整了 API 服務價格,模型 API 服務定價也將調整為每百萬輸入 tokens 0.5 元(緩存命中)/ 2 元(緩存未命中),每百萬輸出 tokens 8 元。

        官方還決定為全新模型設置長達 45 天的優惠價格體驗期:即日起至 2025 年 2 月 8 日,DeepSeek-V3 的 API 服務價格仍然會是大家熟悉的每百萬輸入 tokens 0.1 元(緩存命中)/ 1 元(緩存未命中),每百萬輸出 tokens 2 元,已經注冊的老用戶和在此期間內注冊的新用戶均可享受以上優惠價格。




        評論


        相關推薦

        技術專區

        關閉
        主站蜘蛛池模板: 皋兰县| 乌拉特前旗| 修武县| 西峡县| 新野县| 福建省| 前郭尔| 辰溪县| 黔西| 靖安县| 夹江县| 呼和浩特市| 精河县| 稷山县| 郁南县| 米易县| 自贡市| 团风县| 巴中市| 上饶市| 五原县| 额尔古纳市| 阳曲县| 麻栗坡县| 石泉县| 上蔡县| 武安市| 都安| 自治县| 分宜县| 华阴市| 卢湾区| 盐亭县| 阿荣旗| 武冈市| 白水县| 永宁县| 富裕县| 屏南县| 东明县| 平南县|