馬斯克打臉OpenAI,全球最大巨無霸模型Grok-1開源!3140億參數8個MoE,GitHub狂攬6k星
說到做到,馬斯克xAI的Grok,果然如期開源了!
就在剛剛,xAI正式發布3140億參數混合專家模型Grok-1的權重和架構。

3140億的參數,讓Grok-1成為迄今參數量最大的開源LLM,是Llama 2的4倍。
目前,xAI關于Grok-1沒有透露更多信息。
官網放出的信息如下——
- 基礎模型在大量文本數據上訓練,未針對任何特定任務進行微調。
- 314B參數的MoE,有25%的權重在給定token上處于激活狀態。
- 2023年10月,xAI使用JAX和Rust之上的自定義訓練堆棧從頭開始訓練。
一經上線GitHub,Grok就狂攬了6k星,586個Fork。
項目地址:https://github.com/xai-org/grok-1
馬斯克還不忘嘲諷OpenAI一番,「告訴我們更多關于OpenAI的「open」部分...」
紐約時報點評道,開源Gork背后的原始代碼,是這個世界上最富有的人控制AI未來戰斗的升級。
開源究竟會讓技術更安全,還是會讓它更濫用?
「開源支持者」馬斯克,以身作則地卷入了AI界的這場激烈辯論,并用行動給出了答案。
小扎剛剛也對Grok做出了評價,「并沒有給人留下真正深刻的印象,3140億參數太多了,你需要一堆H100,不過我已經買下了」。

一條磁力鏈,全球首個最大模型開源
這次xAI開源Grok-1,遵守的是Apache-2.0許可證,因此,用戶可以自由使用、修改和分發軟件。存儲庫包含了用于加載和運行Grok-1開源權重模型的JAX示例代碼。用戶需要下載checkpoint,將ckpt-0目錄放置在checkpoint中,隨后運行以下代碼來測試:pip install -r requirements.txtpython run.py
這個腳本會在測試輸入上,加載checkpoint和模型中的樣本。
由于模型較大,參數達到了314B參數,因此需要具有足夠GPU內存的計算機,才能使用示例代碼測試模型。而且,由于此存儲庫中MoE層的實現效率不高,選擇該實現是為了避免需要自定義內核來驗證模型的正確性。通過Torrent客戶端和下面這個磁力鏈接,就可以下載權重了。magnet:?xt=urn:btih:5f96d43576e3d386c9ba65b883210a393b68210e&tr=https%3A%2F%2Facademictorrents.com%2Fannounce.php&tr=udp%3A%2F%2Ftracker.coppersurfer.tk%3A6969&tr=udp%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce



- tokenizer詞匯量:131,072(于GPT-4類似)相當于2^17
- 嵌入大?。?144(48*128)
- Transformer層:64(每一層都有一個解碼層:多頭注意塊和密度塊)
- 鍵值大?。?28
密集塊(密集前饋塊):
- 寬度因子(Widening Factor):8
- 隱藏層大小為32768每個token從8個專家中選出2個。
- 上下文長度:8192個token
- 精度:bf16

網友:開源爭霸戰要來
AI社區已經沸騰了!
技術界指出,Grok的亮點是在前向反饋層中使用了GeGLU以及歸一化方法,并且使用了有趣的三明治范式技術(sandwich norm technique)。
連OpenAI的員工,都表示了自己對Grok的強烈興趣。








馬斯克為何選擇開源?
在數次嘲諷OpenAI是「CloseAI」之后,馬斯克果真選擇了開源自家大模型。
當然,這背后肯定也有商業上的考量。作為市場領導者的OpenAI,是沒有理由開源ChatGPT背后模型代碼的。現在,通過發布Grok的代碼,馬斯克將自己牢牢扎根在后者的陣營中。這一決定,或許能讓他的xAI超越Meta和Mistral AI。Llama的開源給Meta帶來了很多好處,幾乎讓小扎從元宇宙的泥潭爬了出來。



*博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。