OpenAI:DeepSeek使用了我們的模型進行訓練

最近,中國的人工智能企業DeepSeek推出了一款性價比極高的AI模型,其性能與OpenAI的旗艦產品不相上下,這一消息在全球引起了廣泛關注。然而,OpenAI對此表示質疑,認爲這些模型可能是基於他們的數據進行開發的。

據彭博社報道,OpenAI和微軟正在調查DeepSeek是否通過OpenAI的API將OpenAI的AI模型整合到DeepSeek自有的模型中。在2024年末,微軟的安全研究人員發現,大量數據通過OpenAI開發者賬戶被導出。據稱,這些賬戶與DeepSeek有關聯。

OpenAI 向《金融時報》表示,他們發現了DeepSeek使用“蒸餾”技術的證據。

模型蒸餾(Model Distillation)是一種知識遷移技術,旨在將一個複雜的大模型(教師模型)的知識傳遞給一個較小的模型(學生模型)。這種方法不僅能顯著減少模型的複雜性,還能在保持高預測性能的同時降低計算資源的需求。模型蒸餾最早由Hinton等人在2015年提出,並在計算機視覺、自然語言處理等領域取得了顯著的成功。

這種技術能夠以遠低於OpenAI訓練GPT-4所花費的1億美元以上的成本,高效地訓練出小型模型。儘管開發者可以通過OpenAI的API將其AI技術整合到自己的應用程序中,但利用輸出數據來構建競爭模型則違反了 OpenAI 的服務條款。不過,OpenAI 並未透露其發現的具體證據細節。

TheVerge 稱,這充滿了諷刺意味,畢竟 OpenAI自身也曾通過大規模抓取網絡上的文字信息(未經許可)來推動其GPT模型的發展。

OpenAI 在一份聲明中表示:“我們深知,中國等國家的公司以及其他一些企業一直在試圖蒸餾美國領先AI公司的模型。作爲AI領域的領軍者,我們採取了反制措施來保護我們的知識產權,這包括在發佈模型時謹慎選擇哪些前沿功能可以包含在內。我們相信,未來與美國政府密切合作,以防止對手和競爭對手竊取美國技術,保護最先進的模型,是至關重要的。”

更多遊戲資訊請關註:電玩幫遊戲資訊專區

電玩幫圖文攻略 www.vgover.com