新聞中心

        EEPW首頁(yè) > 智能計(jì)算 > 新品快遞 > 70 億 / 130 億參數(shù),微軟研究院發(fā)布 Orca 2 LLM:性能媲美 10 倍參數(shù)模型

        70 億 / 130 億參數(shù),微軟研究院發(fā)布 Orca 2 LLM:性能媲美 10 倍參數(shù)模型

        作者: 時(shí)間:2023-11-22 來(lái)源:IT之家 收藏

        IT之家 11 月 22 日消息,研究院(Microsoft Research)近日發(fā)布新聞稿,推出了相比較主流語(yǔ)言模型更小的 Orca 2 LLM,不過(guò)依然可以回答一些復(fù)雜問(wèn)題。

        本文引用地址:http://www.104case.com/article/202311/453177.htm

        Orca 2 共有 70 億和 130 億兩種尺寸,部分融合了 Llama 2 LLM 參數(shù),通過(guò)融合定制的高質(zhì)量合成數(shù)據(jù),提供更準(zhǔn)確、更優(yōu)秀的合成數(shù)據(jù)。

        表示 Orca 2 使用擴(kuò)展的、高度定制的合成數(shù)據(jù)集進(jìn)行訓(xùn)練。Orca 2 支持分步處理、回憶然后生成、回憶-原因-生成、提取-生成和直接回答等各種推理技術(shù),同時(shí)還能為不同的任務(wù)選擇不同的解決方案策略。

        Orca 2 模型相比較 Llama 2 和 WizardLM 等大型語(yǔ)言模型,在痛苦理解、常識(shí)推理、多步推理、數(shù)學(xué)問(wèn)題解決、閱讀理解等方面更為優(yōu)秀。

        image.png

        微軟表示:“我們的初步結(jié)果表明,Orca 2 的性能明顯優(yōu)于類(lèi)似尺寸的模型。它還達(dá)到了與至少大 10 倍的模型相似或更好的性能水平,展示了為較小模型配備更好推理能力的潛力。”

        IT之家附上微軟 Orca 2 模型的介紹鏈接,感興趣的用戶(hù)可以深入閱讀。




        關(guān)鍵詞: 微軟 生成式AI

        評(píng)論


        相關(guān)推薦

        技術(shù)專(zhuān)區(qū)

        關(guān)閉
        主站蜘蛛池模板: 涞源县| 玉门市| 察雅县| 罗定市| 聊城市| 老河口市| 江口县| 阿拉尔市| 扶绥县| 章丘市| 来安县| 广水市| 邯郸县| 汪清县| 武冈市| 砚山县| 宁河县| 台湾省| 巴彦淖尔市| 土默特右旗| 霍州市| 特克斯县| 伊宁市| 葵青区| 荥经县| 盈江县| 宜君县| 砚山县| 隆回县| 南和县| 塔城市| 京山县| 平定县| 汝阳县| 积石山| 玉环县| 曲靖市| 清涧县| 万全县| 明水县| 滨海县|