知名科技公司英偉達,市值突破了4萬億美元,超過微軟和蘋果,成爲全球市值最高的公司,在過去的30年時間裏,英偉達從一家開發圖形處理遊戲顯卡的小公司,一路成長爲全球AI巨擘!歡迎大家來到老黃髮家史的第12期,今天承接前11期內容,繼續聊老黃的創業史!
01 數據爲王
上文講到在與微軟合作破裂後,黃仁勳祕密啓動了CUDA項目,
這導致英偉達的遊戲顯卡業務擱置,成本激增,
面對AMD的激烈競爭和內部股東的嚴重分歧,
黃仁勳陷入了創業以來的最大危機,
然而,他堅信CUDA能爲科學家提供超級計算工具,
儘管當時並不清楚具體應用領域,
但他預感一定會有人利用英偉達GPU掀起一場技術革命。
斯坦福教授李飛飛受到了WordNet的啓發,
意識到數據是未來技術發展的新燃料,
構建了規模龐大的ImageNet數據集,
包含2200萬張圖像和2.2萬個類別,其規模是同類數據集的1000倍。
起初,學術界並不看好,
認爲突破需要算法而非數據。
爲了驗證數據的價值,李飛飛於2010年推出了ImageNet挑戰賽,
前兩屆比賽的冠軍團隊日本NEC-UIUC和XRCE小組,
都主要依靠傳統的特徵工程方法取勝,錯誤率的下降速度緩慢,
如果繼續按照這個速度,比賽可能失去意義,
而特徵工程加SVM的組合似乎成爲不可撼動的權威,AI革命也無從談起,
就在ImageNet陷入僵局之際,
一個不起眼的團隊引起了李飛飛的注意,
這個團隊的領隊正是多倫多大學的傑弗裏·辛頓教授,
日後辛頓教授成爲了AI教父,還拿下圖靈機和諾獎兩項最高榮譽!
黃仁勳與深度學習三巨頭
02 神經網絡
但是在當時,辛頓在學術界被認爲是過時老掉牙技術的代表,
原因也很簡單,辛頓堅持研究的神經網絡已經是被證明是“死去”的領域,
神經網絡的雛形最早源於1943年,
到58年羅森布拉特教授提出了感知機(Perceptron)算法,
掀起了60年代的AI熱潮,甚至被《紐約時報》譽爲“胚胎計算機”,
不過到了70年代初期,馬文·明斯基和西摩爾·帕珀特
指出感知機無法解決異或(XOR)等非線性問題,
這個結論無疑也宣判了神經網絡的死刑,之後學術界轉而研究專家系統等AI方向。
到了80年代,神經網絡的寒冬短暫復甦,
霍普菲爾德提出了霍普菲爾德網絡,辛頓與特倫斯·塞諾夫斯基推出了玻爾茲曼機。
霍普菲爾德、辛頓 2024諾貝爾物理學獎
而在1986年,奠定英偉達日後取得成功的反向傳播BP算法興起,
辛頓還提出了多層感知機(MLP),能夠解決複雜的非線性問題,
然而,由於計算資源匱乏和對神經網絡營銷的厭倦,
這些研究並未得到廣泛認可。
到了1998年,Lecun開發了人類歷史上第一個卷積神經網絡(CNN)——LeNet-5,
LeNet-5引入了卷積層和池化層,特別適用於圖像數據,
但當時英偉達纔剛成立,
缺乏強大的顯卡來支持如此龐大的計算量,因此也未能引起廣泛關注。
進入21世紀,辛頓繼續探索更深層的神經網絡架構,
到了2006年,他首次創建了深度信念網絡(DBN),
標誌着深度學習概念的萌芽,
09年辛頓又提出了深度玻爾茲曼機(DBM),
展示出無監督預訓練和生成模型的潛力。
03 黑箱模型
經過了多輪的AI泡沫,無論是學術界還是華爾街都不看好神經網絡的發展,
在當時,訓練深層的神經網絡主要有四個問題,
第一是數據非常稀缺,獲取大量高質量的標註數據耗時且成本高昂;
第二是過擬合問題,數據有限時,複雜模型容易過擬合;
第三是梯度消失問題,傳統的激活函數會導致反向傳播中梯度指數級縮小;
第四則是最困難的問題,傳統的CPU無法高效運算,而GPU也未廣泛用於通用計算。
多數學者仍認爲神經網絡是效果不佳的“黑箱模型”。
時間來到2011年,黃仁勳(算力)、李飛飛(數據)和辛頓(算法),
三條獨立的人物線奇蹟般地重合,
數據科學的這些問題也首次得到同時解決
此時距離神經網絡提出時間已經過去了近70年,
英偉達和老黃的命運也即將在2012年的ImageNet大賽上徹底得到改變,
2012年也成爲全球人工智能領域公認的AI元年。
接下來上場的主人公就是辛頓的兩位學生,
他們即將成爲全球AI領域最著名的明星,
我們還是從兩位天才的故事開始講起。
04 俄裔天才
時間來到2000年初,辛頓仍然在多倫多大學研究神經網絡,
由於神經網絡遇冷,研究生普遍不願意給辛頓當研究生,
但是其中一位留學生Alex Krizhevsky對神經網絡很感興趣(下文簡稱爲Alex),
Alex本人是俄裔母語爲俄語,到了青年時期才移民加拿大,
不過Alex英語說得非常流利,但他很少在公衆面前說話,
有一天,Alex突然找到了辛頓,Alex說自己是多大軟件工程最優秀的研究生,
覺得學習有些無聊,希望加入辛頓團隊一起做研究,
辛頓覺得非常驚訝,因爲哪怕是在多大,
也有一羣對他的神經網絡表示冷漠甚至是敵意的學者,
這也是爲何辛頓沒有去斯坦福或者MIT這樣的計算機學術中心,
反而“流落”到多倫多,當時多大的CS專業遠遠比不上北美高校,
辛頓提醒Alex可以去斯坦福、MIT這些頂級強校,
沒有必要留在多倫多讀博,而且研究的還是最不受歡迎的神經網絡,
Alex卻並不在意這些,他的優點是數學極好總能一眼抓住問題的精髓,
辛頓回憶,Alex爲了讓項目更容易獲得學校的審批,
還特意將神經網絡工作描述爲“機器學習”或者“深度學習”,
以便可以從學校獲得資金,唯獨避免提及“人工智能”一詞。
在Alex堅持不懈的努力下,最終成功加入辛頓團隊,
還成爲辛頓最器重的博士生!
與Alex一起成爲辛頓學生的也是一位俄裔移民Ilya Sutskever(下文簡稱爲Ilya),
Ilya同樣也是數學天才,編程能力非常強,
他對神經網絡的信心甚至比辛頓還要強,
Ilya在2005年時就告訴辛頓,“神經網絡終有一日會超越人類的智能。”
(事實也是這樣進行的,Ilya日後成爲了OpenAI的四位創始人之一)
奧特曼和Ilya
05 ImageNet大賽
2012年,辛頓決定帶着自己的卷積神經網絡技術,
去挑戰第三屆ImageNet挑戰賽,
辛頓給兩位學生Ilya和Alex佈置了一項看起來非常難以完成的技術,
就是利用英偉達的GPU,去訓練計算機學會圖像識別,
前面幾期已經濃墨渲染了老黃堅持CUDA的故事,
辛頓也在自己的實驗室開始運用CUDA
(不過他自己的編程能力並沒有自己的學生強,
所以實際幹活的都是他的研究生和博士生)。
辛頓與英偉達結緣其實是在2008年,
當時辛頓就指派自己的研究生阿卜杜勒拉赫曼和喬治·達爾,
開發了一個基於英偉達服務器的語音識別模塊,
到了2009年初,這個語音識別模塊已經與最優秀的機器學習模型不相上下,
這個成果讓辛頓感到震驚,於是在同年的頂會NeuralPS上面,
辛頓向整個研究領域宣稱,
在並行計算處理器上運行神經網絡是AI的未來發展方向,
希望研究人員們立即放下手頭的工作,轉而採購英偉達的GPU,
不過辛頓的話並沒有引起學術界的普遍注意,
甚至也沒有引起老黃的注意。
06 老黃的冷落
在NeuralPS會後,辛頓親自給英偉達發了一封電子郵件,
非常自豪地說,“我剛剛告訴這次會議上的1000名機器學習專家,
他們都應該去買英偉達的顯卡。
所以,你們能送我一張免費的嗎?”
結果老黃和英偉達直接拒絕了。
比較搞笑的是,當時老黃在各個高校實驗室推銷CUDA,
想要和高校合作,但當辛頓討要一張英偉達GPU時,
老黃都不願意給,
因爲機器學習並不在柯克計劃領域之內,
CUDA小組有時甚至故意不回覆辛頓的電子郵件。
當時英偉達的AI課程也尤其讓人難繃,
因爲課堂裏還在說神經網絡無法解決簡單的邏輯函數問題,
但實際上BP算法早在幾十年前就突破了這一限制,
辛頓對老黃的冷落極度不滿,他心想既然無法和英偉達合作,
唯一的方法就是徹底打敗他們,搞一個大新聞出來,
辛頓仔細看了下自己的研究生和博士生團隊,
最終挑出了兩位他最得意的門生,
沒錯也就是上面介紹的Alex和Ilya,
接下來辛頓以多倫多大學的名義正式參加第三屆ImageNet挑戰賽。
07 李飛飛的危機
除了老黃的CUDA危機、辛頓的神經網絡危機,
李飛飛的ImageNet也遇到了大危機,
因爲從ImageNet創立之初,學者就嘲笑李飛飛是想大力出奇跡,
認爲ImageNet就是規模大,沒有太大的意義,
2010年吸引了35位參賽者之後,
2011年的參賽者卻銳減至15人,
到了2012年,更是隻剩下7位參賽者,
競賽是否能夠再延續一年都成了未知數,
如果ImageNet失敗,李飛飛能否可以保住自己在斯坦福的教職還是個問題,
更別提成爲AI教母、三院院士,
站在2012年,辛頓已經65歲即將退休,
老黃和李飛飛都處於危機之中,
拯救他們命運的鑰匙,就落在了Ilya和Alex身上。
08 祕密實驗
在辛頓看來,Ilya和Alex有很多共同點,
他們的數學和編程能力強,很多時候只需要辛頓開啓一個問題,
Ilya和Alex便會開始用俄語討論,然後直接給出正確的答案,
這次的ImageNet挑戰賽,辛頓希望兩人用卷積神經網絡構建一個圖像識別系統,
雖然是首次參賽,辛頓鼓勵兩人不僅要贏,
而且還要徹底擊敗所有其他的競爭對手,
這樣英偉達纔有可能注意到他們,
辛頓的建議可以先從簡單的圖像識別任務練手,
還讓Alex研究下英偉達的CUDA。
於是Alex開始了自己的祕密實驗,
只花了幾個月時間,Alex迅速成爲並行計算編程的專家,
比全世界任何人都能更有效地使用那些GPU板卡運行卷積神經網絡,
2012年初,Alex已成功改造了一個原本僅用於教學練習的經典學術圖像識別網絡,
而且還可以在CUDA上順暢運行,
更加令人震驚的是,GPU僅用30秒就完成了訓練
(而用英特爾的CPU則需要1個小時以上),
辛頓自己是理論派大師,他想過自己的卷積神經網絡肯定有前途,
但這樣的速度也讓他大喫一驚,而且他沒想到英偉達的GPU居然這麼厲害,
當時辛頓並沒有將這些實驗公開,因爲他想直接在ImageNet這個更大的舞臺證明自己!
Alex krizhevsky
09 GTX 580
ImageNet有2200萬張圖像和2.2萬個類別,數據集非常龐大,
爲了支持研究,Ilya和Alex兩位研究生開始籌集資金,
希望打造出一臺運行儘可能快的計算機。
然而兩人都是從俄到加拿大的留學生,並不是什麼富二代,
資金有限的情況下,Ilya和Alex省喫儉用買了兩塊遊戲顯卡——GTX 580。
GTX 580在2010年11月發佈,一張卡的單價約爲500美元,
580是英偉達的旗艦遊戲卡,支持DX11,
當時比較火的3A大作是顯卡殺手孤島危機系列,
多數人買580其實都是爲了打遊戲,
而Ilya和Alex則是爲了搞科研。
Ilya回憶,當時580送過來的時候,
外形看起來就像是電影《異形》中的道具一樣,
每張顯卡大約重1.36公斤,外殼是黑色的,裝飾是鮮綠色的,
還有一個圓形的通風口,裏面裝有強力風扇,
而在這個外殼之下,是一塊巨大的英偉達芯片,
它被嵌入黑色的電路板,周圍佈滿了散熱片,
這塊芯片由30億個晶體管構成,被排列在32個並行核裏,
這也正是Alex最需要的東西
(現在大家認爲H100、A100這類纔是AI計算卡,但在當年580就是AI的初代神卡)。
10 瘋狂科學家
回到家中,Alex一刻都沒有停歇,
將兩塊GTX 580交火插在自己的PC上,
然後在自己搭建的卷積神經網絡上持續運行了1周
(辛頓回憶自己也沒有給Alex付電費,後來是Alex父母承擔了這筆實驗費用),
此時此刻,老黃還完全矇在鼓裏,
他完全沒想到,Alex成爲了全世界第一個喫螃蟹的人,
未來在GTX 580基礎上誕生的英偉達計算卡,
甚至會成爲各個國家核戰略級別的算力資源!
而改變這一切的Alex,甚至還是自己省錢買顯卡,
老黃給Alex磕一個都不過分!
爲了參加ImageNet比賽,Alex搭建了一個約有65萬個獨立神經元的網絡,
要訓練如此龐大的模型,數據需求量極大,
在訓練的開始階段,神經元是以隨機方式連接的,
但隨着訓練深入,它們會重新組織成一個錯綜複雜且精美的結構,
Alex的神經網絡會接收到隨機選取的數據集圖像,
並需要從李飛飛提供的數千個類別中爲其選定一個標籤。
圖像內容可能是一條黃貂魚,也可能是一隻蘇格蘭梗犬,或者是一輛高爾夫球車,
不論何種內容,神經網絡都是首次接觸,
因此在選定標籤時,它只能進行猜測,
所以第一次猜測往往都是錯誤的,
然而在這次錯誤的猜測中,網絡也獲取了一些關於圖像內容的微弱線索,
比如至少能確定圖像並非黃貂魚,
然後神經網絡會藉助辛頓提出的反向傳播方法,
來調整神經元間的連接處理這些信息,
真正麻煩的也就是BP這一步,因爲需要涉及到大規模的“矩陣乘法”。
11 Matrix
過去,許多訓練神經網絡的嘗試,其實都卡在BP做矩陣計算的這一步,
而Alex擁有比其他科學家更厲害的神器——GTX 580,
而且他還專門寫了適配矩陣計算的CUDA代碼,
可以用GTX 580的並行架構進行高效運算,
一旦數學運算完成,Alex的網絡便會接收到第二張圖像,
緊接着是第三張、第四張,直至成千上萬張,甚至數百萬張。
爲了“觀看”這些圖像,神經網絡實際上並不處理光線,
相反它接收的是一串數字,這些數字代表着特定像素陣列的排列與顏色,
隨後,神經網絡會更新代表不同解釋層突觸權重的數字網格,
在訓練剛開始的幾分鐘內,Alex就取得了重大收穫,
因爲他的神經網絡意外地成功標記了首張圖像——花盆,
這次成功觸發了大量的矩陣乘法運算,BP會不斷向神經網絡傳達,
是什麼特徵讓“花盆”區別於“黑猩猩”“檯球桌”或“自卸卡車”。
就這樣,這個過程日復一日地重複了數百萬次,
Alex的臥室彷彿變成了一個高速進化的世界,
每天晚上,Alex都會被顯卡風扇噪音吵得無法睡覺,
但是他發現圖像識別的準確率從0%開始緩慢攀升,
逐漸達到1%、10%、40%、60%,
這說明他們的實驗和假設成功了,神經網絡的時代已經到來!
12 一鳴驚人
2012年的ImageNet大賽,Alex帶着自己全新的卷積神經網絡參賽,
過去傳統的機器學習方法比如SVM、手工特徵提取的Top-5錯誤率高達25%以上,
而辛頓團隊的Top-5錯誤率15.3%,
較第二名(26.2%)提升近11個百分點,創歷史最大幅度提升,
辛頓和兩位學生Alex、Ilya從此也一鳴驚人,
成爲全世界最炙手可熱的AI明星,
不誇張地說,如今的AI時代,正是他們三人開啓的,
背後李飛飛憑藉ImageNet大賽奠定在學術界的地位,
而世俗意義上賺得最多的是悶聲發大財的老黃,
曾經英偉達團隊對辛頓的神經網絡愛答不理,
還要Alex和Ilya省錢去買顯卡,
如今英偉達卻因爲他們的成績名聲大噪,
一躍成爲全球第一大公司,
背後有太多太多的偶然,
而當所有偶然都聚集在一起時,似乎也成爲了必然。
Alex將他的神經網絡命名爲“SuperVision”,
日後大家將這個神經網絡用Alex的名字命名爲AlexNet,
2012年也成爲AI元年,GTX 580這張顯卡也成爲AI博物館裏程碑級別的標誌!
2013年,就在AlexNet發佈一年以後,
辛頓很快就遇到了新的挑戰,老黃也遇到了新對手,
AlexNet雖然出來了,但是從學術競賽到如今的大模型開花,
還有很長很長的一段路要走,
辛頓、Alex和Ilya的故事纔剛剛開始,
老黃的命運也從此被綁上AI的戰車,
欲知後事如何,且聽下回分解!
遊戲&AI系列:
老黃髮家史——英偉達市值突破4萬億,老黃的傳奇人生!
老黃髮家史——傳奇AMD工程師,老黃人生的第一份工作!
老黃髮家史——世嘉主機拯救英偉達,老黃曾差點破產!
老黃髮家史——FPS天才成就英偉達,N卡的誕生!
老黃髮家史——N卡大戰A卡,上古芯片巨頭ATI!
老黃髮家史——英偉達創造顯卡,PC遊戲的崛起!
老黃髮家史——極客玩家的一次靈感,啓發英偉達進軍AI!
老黃髮家史——讓玩家爲 AI 買單,老黃成功的祕訣!
老黃髮家史——CUDA崛起,英偉達AI的護城河!
老黃髮家史——華人AI教母李飛飛,老黃髮家的貴人!
老黃髮家史——神經網絡,AI革命的起點!
AI——是遊戲NPC的未來嗎?
巫師三——AI如何幫助老遊戲畫質重獲新生
你的遊戲存檔——正在改寫人類藥物研發史
無主之地3——臭打遊戲,竟能解決人類大腸便祕煩惱
一句話造GTA——全球首款A遊戲引擎Mirage上線
AI女裝換臉——FaceAPP應用和原理
AI捏臉技術——你想在遊戲中捏誰的臉?
Epic虛幻引擎——“元人類生成器”遊戲開發(附教程)
腦機接口——特斯拉、米哈遊的“魔幻未來技術”
白話科普——Bit到底是如何誕生的?
永劫無間——肌肉金輪,AI如何幫助玩家捏臉?
Adobe之父——發明PDF格式,助喬布斯封神
FPS遊戲之父——誰是最偉大的遊戲程序員?
《巫師3》MOD——製作教程,從零開始!
#gd的ai&遊戲雜談#
更多遊戲資訊請關註:電玩幫遊戲資訊專區
電玩幫圖文攻略 www.vgover.com