馬斯克用行動反擊 開源自家頂級大模型 壓力給到OpenAI
《科創板日報》3月18日訊(編輯 宋子喬) 似乎是為了表明自己始終堅持對AI模型開源,馬斯克做出了與阿爾特曼全然不同的選擇。3月17日,馬斯克宣布開源Grok-1,這使得Grok-1成為當前參數量最大的開源大語言模型,擁有3140億參數,遠超OpenAI GPT-3.5的1750億。
有意思的是,Grok-1宣布開源的封面圖為Midjourney生成,可謂“AI helps AI”。
一直吐槽OpenAI不open的馬斯克,自然要在社交平臺上含沙射影一番,“我們想了解更多OpenAI的開放部分。”
Grok-1遵照Apache 2.0協議開放模型權重和架構。這意味著它允許用戶自由地使用、修改和分發軟件,無論是個人還是商業用途。這種開放性鼓勵了更廣泛的研究和應用開發。項目發布至今,已經在GitHub上攬獲6.5k星標,熱度還在持續增加。
項目說明中明確強調,由于Grok-1是一個規模較大(314B參數)的模型,需要有足夠GPU內存的機器才能使用示例代碼測試模型。網友表示這可能需要一臺擁有628 GB GPU內存的機器。
此外,該存儲庫中MoE層的實現效率并不高,之所以選擇該實現是為了避免需要自定義內核來驗證模型的正確性。
目前已開源的熱門大模型包括Meta的Llama2、法國的Mistral等。通常來說,發布開源模型有助于社區展開大規模的測試和反饋,意味著模型本身的迭代速度也能加快。
Grok-1是一個混合專家(Mixture-of-Experts,MOE)大模型,由馬斯克旗下的AI創企xAI在過去4個月里開發。回顧該模型的開發歷程:
在宣布成立xAI之后,相關研究人員首先訓練了一個330億參數的原型語言模型(Grok-0),這個模型在標準語言模型測試基準上接近LLaMA2(70B)的能力,但使用了更少的訓練資源;
之后,研究人員對模型的推理和編碼能力進行了重大改進,最終開發出了Grok-1并于2023年11月發布,這是一款功能更為強大的SOTA語言模型,在HumanEval編碼任務中達到了63.2%的成績,在MMLU中達到了73%,超過了其計算類中的所有其他模型,包括ChatGPT-3.5和Inflection-1。
與其他大模型相比,Grok-1的優勢在哪呢?
xAI特別強調,Grok-1是他們自己從頭訓練的大模型,即從2023年10月開始使用自定義訓練堆棧在JAX和Rust上訓練,沒有針對特定任務(如對話)進行微調;
Grok-1的一個獨特而基本的優勢是,它可以通過X平臺實時了解世界,這使得它能夠回答被大多數其他AI系統拒絕的辛辣問題。Grok-1發布版本所使用的訓練數據來自截至2023年第三季度的互聯網數據和xAI的AI訓練師提供的數據;
3140億參數的Mixture-of-Experts模型,其對于每個token,活躍權重比例為25%,這一龐大的參數量為其提供了強大的語言理解和生成能力。
xAI此前介紹,Grok-1將作為Grok背后的引擎,用于自然語言處理任務,包括問答、信息檢索、創意寫作和編碼輔助。未來,長上下文的理解與檢索、多模態能力都是該模型將會探索的方向之一。
本文鏈接:馬斯克用行動反擊 開源自家頂級大模型 壓力給到OpenAIhttp://m.lensthegame.com/show-2-3998-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任,僅提供存儲服務。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
上一篇: 馬斯克開源3140億參數的Grok,大模型爭相開源所為何求?
下一篇: AI領域,重磅消息傳來!