1月27日,杭州幻方量化公司旗下的大模型DeepSeek,目前已經順利反超谷歌的Gemini、微軟的Copilot、OpenAI的ChatGPT,登上美區和國區蘋果商店應用商店免費下載榜單第一名,此外,DeepSeek在英國區免費應用下載榜的排名也升至第二名!
今天凌晨,遊戲科學創始人、CEO馮驥發文盛讚DeepSeek,認爲DeepSeek可能是個國運級別的科技成果,馮驥希望利用自己的影響力讓更多玩家知道DeepSeek,有些圈內人說馮驥蹭熱度,我認爲主要是因爲遊科(黑神話B1部門)和深度求索都是杭州公司,也是今年杭州拿到世界上最能打的公司,遊科杭州部門在西湖區轉塘象山藝術社區,Deepseek母公司私募巨頭幻方在杭州拱墅(https://www.xiaoheihe.cn/community/7214/list/142452265?heybox_id=19441452),馮驥一共列舉了6條突破:
1、強大。比肩O1的推理能力,暫時沒有之一
去年12月的時候我在小黑盒介紹了DeepSeek-V3版本(https://www.xiaoheihe.cn/community/7214/list/142137916?heybox_id=19441452)。
當時在Hugging Face Open LLM Leaderboard中,DeepSeek-V3的綜合得分(89.1)與GPT-4o(89.3)處於同一量級,這次的DeepSeek-R1與o1同樣處於同一量級,在數學、編程等結構化任務中表現還要突出,在AIME 2024數學競賽中,DeepSeek-R1的準確率(79.8%)還要略超OpenAI o1-1217的準確率(79.2%)。
2、便宜。參數少,訓練開銷與使用費用小了一個數量級
DeepSeek也是採用MoE(混合專家)架構,V3版本單次推理能耗0.38Wh/query,對比4o是4.2Wh/query,API調用成本0.0003/1k tokens,對比GPT−4o是0.0003/1k tokens,很多開發者都從OpenAI轉投DeepSeek,便宜又好用纔是王道。這次的R1訓練成本尚未完全公開,但這一週看下來根據大家估算,差不多隻有OpenAI o1的三十分之一。
3、開源。任何人均可自行下載與部署,提供論文詳細說明訓練步驟與竅門,甚至提供了可以運行在手機上的mini模型。
這一點絕對的遙遙領先,圖靈獎深度學習三巨頭Lecun親自爲DeepSeek站臺,DeepSeek的勝利是開源的勝利,DeepSeek纔是真正的Open AI,大於Sam的CloseAI。可以在移動端運行的mini小模型性能也非常炸裂,已經超了OpenAI o1-mini。
4、免費。官方目前提供的服務完全免費,任何人隨時隨地可用
這一點也沒太多好說的。DeepSeek應用端提供R1和聯網功能,對比免費榜單上一票假免費大模型應用要良心得多,而且不需要開會員或者訂閱就能使用(不排除之後會開會員),但考慮到成本很低,會員訂閱費用肯定比o1低,而且利潤空間不小。這裏馮驥說的還不太嚴謹其實,調用API是收費的,但是價格遠低於OpenAI,而且採用的是與OpenAI兼容的API格式,開發者只需要簡單的配置修改就能完成替代,如果馮驥是面向廣大基礎用戶說這話也是梅瑟莫問題,畢竟大部分用戶也不會用到API。
5、聯網。暫時唯一支持聯網搜索的推理模型(o1還不支持)
沒問題。馮驥這裏說的是推理模型,R1確實是唯一支持聯網搜索的推理模型,R1+聯網展示出來的思維鏈效果極其驚豔。
6、本土。深度求索是一家很小規模的年輕中國公司,由沒有海外經歷甚至沒有資深從業經驗的本土團隊開發完成
深度求索團隊成員由本土頂尖高校少年班成員構成,無海外經歷,100%內資,而且也沒有騰訊阿里等巨頭的注資。
最後是馮驥說DeepSeek是國運級成果,這一點需要聊聊DeepSeek的核心創新,傳統大模型訓練依賴監督微調(SFT),DeepSeek R1直接通過大規模強化學習(RL)提升推理能力,可以理解爲DeepSeek創出了一條不那麼依賴高性能卡去做大模型的路。我目前找到的是下面幾篇核心論文《RL-Centric Architecture》、《GRPO Optimization》、《Knowledge Distillation Paradigm》、《DeepSeek-Math》(前三篇是RL+GRPO,利用蒸餾降低訓練成本,後面一篇是DeepSeek去年放在arxiv上的探索大模型數學推理的論文,目前Meta各大公司也在做逆向工程研究DeepSeek降低成本的方法。過年我的時間比較充足,如果大家想看的話,我也可以在小黑盒把四篇文章剝開詳細聊聊)。
更多遊戲資訊請關註:電玩幫遊戲資訊專區
電玩幫圖文攻略 www.vgover.com