3月17日,日本樂天集團正式在Hugging Face開源「Rakuten AI 3.0」模型,並高調宣稱這是“日本最大高性能人工智能模型”。
該模型採用Mixture of Experts(MoE)架構,總參數約671億,激活參數37億,上下文長度達128K,針對日語及日本文化深度優化。在多項本土基準測試中表現亮眼,樂天稱其將爲生態系統帶來高達90%的推理成本降低。
然而,模型上線後,AI社區開發者迅速通過Hugging Face頁面配置文件、權重tensor尺寸、tokenizer及chat template發現,其底層架構與中國的DeepSeek-V3一致,實際是在DeepSeek V3基礎上進行繼續預訓練與本地化微調。
樂天官方新聞則表示,該模型依託GENIAC項目支持,結合開源社區最佳成果及自家高質量雙語數據開發,以Apache 2.0許可免費下載。
![]()
![]()
![]()
更多遊戲資訊請關註:電玩幫遊戲資訊專區
電玩幫圖文攻略 www.vgover.com
