大型雙標現場:美三大AI巨頭罕見聯手防蒸餾

有句話說得好,敵人的敵人就是朋友。


在面對共同的“敵人”時,大美麗的AI巨頭們這次似乎“很有默契”地選擇站到了一起來抵抗我們這邊的AI公司。


近期,OpenAI、Anthropic 和Google通過共同成立的Frontier Model Forum,開始共享“對抗性蒸餾”相關信息。

“對抗性蒸餾”,這個描述就很有意思。


光聽着就有一定的火藥味,把正常的知識轉移直接上升到了對抗層面,彷彿別人從你模型裏學東西就是在發動一場“偷襲”。


這個組織的官網我也替大家看了,是一個圍繞大模型安全問題而成立的組織,各種口號和理念倒是寫得很先進,似乎在爲全人類着想。


不過實際上,目前該組織的核心目標就是以“安全”的名義,想辦法阻止我們這邊的AI公司去使用他們的模型,僅此而已。

OpenAI 甚至在提交給大美麗國會的備忘錄裏直接點名 DeepSeek。

Anthropic 不用多說了,大美麗急先鋒,沒有之一。

Google 雖然沒有公開細節,但說三方都表示會繼續合作。


說起蒸餾,這事都不用我多說了——大美麗的AI公司自己也經常幹類似的事。


已經不知道有多少次,在有人問 ChatGPT/Gemini/Claude “你是誰”時,它們會抽風直接回答自己是來自國內的某家AI,或者承認用了大量中文數據訓練。

結果現在輪到別人從它們模型裏學東西,就立刻喊“國家安全”“工業級攻擊”。


蒸餾這種做法在AI行業早就不是什麼祕密。


它本質上是用強模型的輸出訓練弱模型,實現能力快速遷移和成本大幅壓縮。很多模型(不管是GPT還是Gemini、Claude,乃至 DeepSeek)都用過這種方式,在短時間內把推理、編碼、多模態等能力追了上來。

對於行業而言,這是一種幾乎公開的做法,通過這種方式,可以在相對較短的時間內,讓一個較弱的模型快速學習到較強的模型的能力以實現進步。


可大美麗這邊就很雙標了。


我可以蒸餾你,這叫“技術進步”“推動人類文明發展”;

你們不能蒸餾我,因爲事關“美麗安全”,你們會把技術用於軍事,這是“非法的”。

這其中,以 Anthropic 2月那篇長文尤其典型,高調指責DeepSeek、月之暗面、MiniMax 蒸餾 Claude,喊得義正詞嚴。


這就很幽默了。

只要你面對公衆提供服務,那麼技術擴散的速度永遠比封鎖快,這點在AI圈已經反覆驗證過了。


就以國外的模型爲例,Meta Llama系列剛開源沒多久就被Fork了無數個版本,Flux 一放出來就變成人人可用的圖像生成底座,早期的 GPT-3 輸出也被拿去訓練了一堆小模型。


想徹底堵住?幾乎不可能。


技術這東西,一旦到了公開可用的地步,就跟水一樣,哪裏有縫往哪裏流。


更搞笑的是,它們堵了半天,最後估計還是堵不住。

話糙理不糙

隨便整個中轉、換個IP、或者想想別的辦法,該蒸餾還是一樣蒸餾。

就跟他們蒸餾我們的這邊的模型一樣(甚至門檻更低)。


最後,希望大美麗的AI公司能稍微放下一些偏見,別把所有精力都放在怎麼防別人上。真正推動技術進步的,還是大家一起把模型做得更好、讓更多人用得上,而不是天天盯着別人怎麼學自己。


AI發展到現在,已經不是誰藏着掖着就能領先的時代了。


開放、競爭、互相學習,纔是讓整個行業真正往前走的正確方式。


更多遊戲資訊請關註:電玩幫遊戲資訊專區

電玩幫圖文攻略 www.vgover.com