老黃髮家史11——神經網絡,AI革命的起點!

知名科技公司英偉達,市值突破了4萬億美元,超過微軟和蘋果,成爲全球市值最高的公司,在過去的30年時間裏,英偉達從一家開發圖形處理遊戲顯卡的小公司,一路成長爲全球AI巨擘!歡迎大家來到老黃髮家史的第11期,今天承接前十期內容,繼續聊老黃的創業史!

01 技術偶然

上文講到老黃的至暗時刻,

英偉達與微軟合作破裂後,老黃轉而祕密啓動CUDA項目,

但是導致遊戲顯卡業務擱置、成本激增,

外部面臨AMD的激烈競爭,內部股東分歧嚴重,

黃仁勳陷入創業以來最嚴峻的危機。

但是老黃依然自比爲17世紀發明望遠鏡的荷蘭工匠,

堅持CUDA戰略,希望爲科學家提供超級計算工具,

彼時,老黃心中其實並不知道未來會出現什麼技術,

坦言自己缺乏馬斯克那種目標明確的願景,

自己只是感覺CUDA可以幫助到科學家,

但是具體在哪個領域,如何取得突破,

這些老黃都是一頭霧水。

但他仍然堅信,在地球上的某個角落,

一定會有研究者使用英偉達GPU掀起一場技術革命!

首先登上歷史舞臺的是斯坦福教授李飛飛,

她畢業於成都七中,後前往Caltech深造,

受語言數據集WordNet啓發,

她意識到數據是未來技術發展的新燃料,

於是構建了涵蓋2200萬張圖像、2.2萬類別的ImageNet數據集,

規模達同類1000倍,起初學術界並不看好李飛飛,

認爲這只不過是規模更大的數據集,

要想取得突破還是需要算法。

02 數據還是算法?

於是,李飛飛在2010年推出了ImageNet挑戰賽,

首屆冠軍由日本NEC(林元慶領隊)和UIUC(黃煦濤領隊),

以傳統特徵工程方法獲得,Top-5錯誤率28.2%,

華人團隊雖奪冠,但未突破算法瓶頸,

2011年,第二屆ImageNet挑戰賽,

獲得冠軍的是XRCE小組,

仍然是靠特徵提取和降低特徵維度這些特徵工程取勝,

Top-5錯誤率25.7%,較2010年提升2.5個百分點,

如果未來每年都是這個進步速度,

那麼李飛飛的ImageNet挑戰賽也會成爲無意義的刷榜,

特徵工程+SVM的組合就是不可挑戰的權威,

未來的AI革命自然也就無從談起,

英偉達也無法達到今天4萬億美元的盛況。

03 AI教父

在2011年參賽人員中,還有一個非常不起眼的團隊,

團隊領隊爲多倫多大學的Hinton辛頓教授,

辛頓對李飛飛的ImageNet挑戰賽很感興趣,

他開始思考自己一直信奉的算法,

是否可以在ImageNet比賽上取得好成績,

但學術界幾乎所有人都對此嗤之以鼻,

因爲辛頓在學界早就是過時老掉牙技術的代表了,

不過誰也沒有想到,這位老頭居然日後成爲AI教父,

並且榮獲圖靈獎和諾貝爾獎雙獎!

霍普菲爾德、辛頓 2024諾貝爾物理學獎

說來辛頓勉強也算是中國人的半個老朋友,

辛頓的高曾祖父是布爾代數的創始人喬治·布爾,

參與曼哈頓計劃的核物理學家瓊·辛頓是傑弗裏的堂姑,

瓊·辛頓師從費米,與楊振寧爲同學,

而瓊·辛頓的中文名大家更熟悉,名叫寒春,

寒春1948年隨未婚夫陽早移居中國,投身農業機械化建設,

成爲北京首位獲得中國綠卡的外國人!

話扯遠了,在2011年辛頓教授已經在神經網絡上鑽研了三十年,

但是一直無法獲得學術界的廣泛認可,

因爲在當時,神經網絡已經是被判“死刑”的技術。

黃仁勳與深度學習三巨頭

04 老掉牙的技術

神經網絡其實是起源於生物學,

1943年,神經生理學家沃倫·麥卡洛克和數學家沃爾特·皮茨

創建了神經網絡的計算模型,他們利用電路模擬大腦神經元,

不過早期的模型都比較抽象,模型缺乏學習機制,

而且依賴同步時鐘信號,與生物神經元的異步特性不符。

到了1958年,第一個採用神經網絡結構的算法感知機(Perceptron)出現,

弗蘭克·羅森布拉特教授從神經元工作方式得到啓發,

搭建了單層神經網絡感知機,

還成功在Mark I Perceptron計算機上實現,

1958年《紐約時報》頭版宣稱,

“感知機是胚胎計算機,未來可走路、說話、觀察、寫作!”

羅森布拉特的感知機直接掀起了60年代的AI熱潮,

美國海軍投入百萬美元資助,引發學界與資本追捧。

05 AI寒冬

70年代初期,馬文·明斯基和西摩爾·帕珀特對感知機進行了數學分析,

認爲感知機無法解決異或(XOR)操作等非線性可分問題,

這一分析導致了研究的顯著停滯,通常被稱爲“AI寒冬”。

單層感知機本質上是一個線性分類器,

決策邊界只能是一條直線(或高維超平面),

而XOR問題在二維空間中無法被一條直線完全分割,

明斯基是MIT人工智能實驗室聯合創始人,

他把觀點發布之後,幾乎否定了感知機的所有實用價值,

學界基本上放棄神經網絡,

轉而探索符號主義AI,比如專家系統,

但是符號主義依賴人工規則,難以處理真實世界的模糊性,

進一步加劇了AI應用的瓶頸。

06 學新聞學的

所以在上世紀70年代後期,AI方面的研究幾乎處於停滯狀態,

當時的美國媒體也基本上是學新聞學的,

每次AI領域有一點突破,媒體立刻放大資本湧入,

人工智能領域多次經歷這種炒作週期,

隨後就是失望和批評,

一個技術往往幾年甚至幾十年後才重新獲得興趣。

明斯基和帕珀特的批判觸發了AI寒冬,

但是並不代表神經網絡和感知機毫無意義,

恰恰相反,神經網絡和感知機正是這輪AI革命最早的起點,

只是當時大家的視野仍有侷限性,

看不到神經網絡未來的發展,

再加上公衆和媒體往往功利性很強,

很多好技術最終也會被埋沒,

好在這個世界上從來不缺像辛頓教授這樣較真的人。

07 反向傳播-1986

在上世紀80年代,AI寒冬短暫迎來複蘇,

首先是霍普菲爾德在82年推出了霍普菲爾德網絡(Hopfield Network)

(注:霍普菲爾德與辛頓同獲諾獎),

而辛頓教授與特倫斯·塞諾夫斯基,

在85年推出了大名鼎鼎的玻爾茲曼機(Boltzmann Machine)。

次年,辛頓、魯梅爾哈特和威廉姆斯推廣了反向傳播算法,

提出了多層感知機(MLP),

與之前的感知機不同,多層感知機使用非線性(可微分)激活函數,

能夠解決複雜的非線性問題,還能學習內部表示。

魯梅爾哈特還引入了循環神經網絡(RNN)的概念,

希望提高網絡處理序列數據的記憶能力,

MLP和RNN的提出,

直接成爲了日後計算機視覺CV和自然語言處理NLP騰飛的基石,

也直接造就瞭如今的AI大模型時代,

不過在80年代,由於大家已經厭倦了神經網絡的營銷,

再加上反向傳播BP需要大量的算力資源,

英偉達CUDA顯卡還沒有出來,沒有硬件可以支持這樣的算法,

所以多數學者仍然對辛頓的研究比較冷淡。

08 卷積神經網絡-1998

等到神經網絡下一次迎來躍遷,還要等到十年後,

1997年,Schmidthuber對RNN進行改進,

引入了長短期記憶網絡(LSTM),

通過部分解決梯度消失問題提高了記憶能力,

成爲自然語言處理的里程碑;

第二年,Yann LeCun開發了LeNet-5,

(Hinton、LeCun和Bengio日後一起獲得2018圖靈獎)

這是人類歷史上第一個卷積神經網絡(CNN),

與感知機神經網絡相比,Lecun引入了卷積層的概念,

卷積(Convolution)本身其實是很基礎的數學運算,

LeNet-5由7層神經網絡組成,

分別是輸入層+2個卷積層+2個池化層+3個全連接層,

用通俗語言來說,卷積層類似於偵探找線索,進行特徵提取,

池化層類似總結報告,降維保留關鍵信息,

而全連接層是最終決策,整合所有信息做判斷,

LeNet-5尤其適用於圖像數據,

不過放在1998年,那時老黃英偉達纔剛剛成立不久,

如果卷積神經網絡層數增大,

仍然缺乏顯卡來計算如此龐大的參數量,

所以遺憾的是,98年的卷積神經網絡仍然沒有引起大範圍的注意。

09 深度學習-2000年代

進入21世紀,在80年代和90年代的理論基礎上,

辛頓仍然沒有放棄神經網絡,

繼續探索更深層的架構,

2006年,辛頓首次創建了深度信念/置信網絡(Deep Belief Network,DBN),

這是一種通過堆疊受限玻爾茲曼機形成的生成模型,

深度學習的概念也是從這一時期開始萌芽的,

但實際上人工智能、深度學習、大模型這些範圍很大的詞,

都屬於營銷話術,真正的研究都有非常具體的方向,

比如反向傳播這類研究屬於優化方法,

DBN是早期深度學習的算法實體,

更具體來說是爲了解決無監督特徵學習問題,

後來常被泛化爲“深度學習革命”的象徵符號,

而且深度學習本身是個很大的概念,

單獨拿出來討論意義不大,大模型也是同理,

接下來的英偉達老黃髮家史系列,

我也會給大家介紹各個領域的技術沿革發展。

DBN

10 2011年-AI浪潮前夜

辛頓的DBN首次證明深層網絡也可以高效訓練,

2009年,辛頓再提出深度玻爾茲曼機(Deep Boltzmann Machine,DBM),

DBM和DBN類似,但DBM是完全無向圖,

所有相鄰層均爲雙向對稱連接,訓練複雜度高,

這類生成模型也展示出無監督預訓練的潛力。

不過放在當時,訓練深度網絡需要巨大的計算能力,

而傳統的CPU根本無法高效做運算,

而GPU也尚未被廣泛用於通用計算,

再加上這類“深度學習模型”需要大量高質量的訓練數據,

當時想要獲取標註足夠的數據非常耗時而且成本極高,

所以在數據有限的情況下,複雜模型容易過擬合,

而使用傳統Sigmoid或Tanh激活函數的深度網絡中,

還容易出現梯度消失問題,

反向傳播過程中梯度會指數級縮小,使得模型難以學習。

DBM

種種問題疊加之下,

多數學者都認爲神經網絡是效果不太好的黑箱模型,

決策過程難以理解,還需要大量的數據和計算資源,

想要取得突破幾乎是不可能的事情,

但是在2011年,

屬於黃仁勳、李飛飛和辛頓三條完全獨立的人物線,

居然奇蹟般地重合了,數據科學的三大難題——

算力(黃仁勳)、數據(李飛飛)和算法(辛頓),

也在人類歷史上首次同時解決,

那麼究竟是誰成就了這一切,

人類歷史又是如何被改變的呢,

欲知後事如何,且聽下回分解!

AlexNet團隊

遊戲&AI系列:

老黃髮家史——英偉達市值突破4萬億,老黃的傳奇人生!

老黃髮家史——傳奇AMD工程師,老黃人生的第一份工作!

老黃髮家史——世嘉主機拯救英偉達,老黃曾差點破產!

老黃髮家史——FPS天才成就英偉達,N卡的誕生!

老黃髮家史——N卡大戰A卡,上古芯片巨頭ATI!

老黃髮家史——英偉達創造顯卡,PC遊戲的崛起!

老黃髮家史——極客玩家的一次靈感,啓發英偉達進軍AI!

老黃髮家史——讓玩家爲 AI 買單,老黃成功的祕訣!

老黃髮家史——CUDA崛起,英偉達AI的護城河!

老黃髮家史——華人AI教母李飛飛,老黃髮家的貴人!

AI——是遊戲NPC的未來嗎?

巫師三——AI如何幫助老遊戲畫質重獲新生

你的遊戲存檔——正在改寫人類藥物研發史

無主之地3——臭打遊戲,竟能解決人類大腸便祕煩惱

一句話造GTA——全球首款A遊戲引擎Mirage上線

AI女裝換臉——FaceAPP應用和原理

AI捏臉技術——你想在遊戲中捏誰的臉?

Epic虛幻引擎——“元人類生成器”遊戲開發(附教程)

腦機接口——特斯拉、米哈遊的“魔幻未來技術”

白話科普——Bit到底是如何誕生的?

永劫無間——肌肉金輪,AI如何幫助玩家捏臉?

Adobe之父——發明PDF格式,助喬布斯封神

FPS遊戲之父——誰是最偉大的遊戲程序員?

《巫師3》MOD——製作教程,從零開始!

#gd的ai&遊戲雜談#

更多遊戲資訊請關註:電玩幫遊戲資訊專區

電玩幫圖文攻略 www.vgover.com