內地媒體報道,由DeepSeek團隊共同完成、梁文鋒擔任通訊作者的DeepSeek-R1推理模型研究論文,登上國際學術期刊《自然》(Nature)的封面。 DeepSeek R1成為首個通過同行評議的主要大語言模型,發表在《自然》雜誌的新版DeepSeek-R1論文,與今年1月未經同行評審的初版有較大差異。 在同行評議過程中,DeepSeek團隊根據評審意見減少了對模型的擬人化描述,並增加模型訓練的技術細節說明,包括模型訓練資料類型和安全性考慮等,並回應了此前關於知識蒸餾的質疑。 DeepSeek明確否認了此前關於其使用OpenAI模型輸出進行訓練的質疑,指DeepSeek-V3 Base(DeepSeek-R1的基座模型)使用的數據全部來自互聯網,雖然可能包含GPT-4產生的結果,但絕非有意而為之,更沒有專門的蒸餾環節。 開源後,R1在Hugging Face下載量破1090萬次,成為全球最受歡迎的開源推理模型。 DeepSeek團隊也首次公開了R1訓練成本僅29.4萬美元(約229.32萬港元)。這個金額即使加上約600萬美元(約4680萬港元)的基礎模型成本,也遠低於OpenAI、Google訓練AI的成本。 作為全球首個通過同行評審的主流大語言模型,《自然》將該篇論文作為封面論文,此次論文發表標誌中國在大模型基礎研究領域取得重要突破。《自然》認為,隨着AI技術日漸普及,大模型廠商們無法驗證的宣傳可能會對社會帶來真實風險。依靠獨立研究人員進行的同行評議,是抑制AI產業過度炒作的有效方式。而DeepSeek所做的一切,是非常值得歡迎的先例。 #DeepSeek (CW)
<匯港通訊>