老黄发家史11——神经网络,AI革命的起点!

知名科技公司英伟达,市值突破了4万亿美元,超过微软和苹果,成为全球市值最高的公司,在过去的30年时间里,英伟达从一家开发图形处理游戏显卡的小公司,一路成长为全球AI巨擘!欢迎大家来到老黄发家史的第11期,今天承接前十期内容,继续聊老黄的创业史!

01 技术偶然

上文讲到老黄的至暗时刻,

英伟达与微软合作破裂后,老黄转而秘密启动CUDA项目,

但是导致游戏显卡业务搁置、成本激增,

外部面临AMD的激烈竞争,内部股东分歧严重,

黄仁勋陷入创业以来最严峻的危机。

但是老黄依然自比为17世纪发明望远镜的荷兰工匠,

坚持CUDA战略,希望为科学家提供超级计算工具,

彼时,老黄心中其实并不知道未来会出现什么技术,

坦言自己缺乏马斯克那种目标明确的愿景,

自己只是感觉CUDA可以帮助到科学家,

但是具体在哪个领域,如何取得突破,

这些老黄都是一头雾水。

但他仍然坚信,在地球上的某个角落,

一定会有研究者使用英伟达GPU掀起一场技术革命!

首先登上历史舞台的是斯坦福教授李飞飞,

她毕业于成都七中,后前往Caltech深造,

受语言数据集WordNet启发,

她意识到数据是未来技术发展的新燃料,

于是构建了涵盖2200万张图像、2.2万类别的ImageNet数据集,

规模达同类1000倍,起初学术界并不看好李飞飞,

认为这只不过是规模更大的数据集,

要想取得突破还是需要算法。

02 数据还是算法?

于是,李飞飞在2010年推出了ImageNet挑战赛,

首届冠军由日本NEC(林元庆领队)和UIUC(黄煦涛领队),

以传统特征工程方法获得,Top-5错误率28.2%,

华人团队虽夺冠,但未突破算法瓶颈,

2011年,第二届ImageNet挑战赛,

获得冠军的是XRCE小组,

仍然是靠特征提取和降低特征维度这些特征工程取胜,

Top-5错误率25.7%,较2010年提升2.5个百分点,

如果未来每年都是这个进步速度,

那么李飞飞的ImageNet挑战赛也会成为无意义的刷榜,

特征工程+SVM的组合就是不可挑战的权威,

未来的AI革命自然也就无从谈起,

英伟达也无法达到今天4万亿美元的盛况。

03 AI教父

在2011年参赛人员中,还有一个非常不起眼的团队,

团队领队为多伦多大学的Hinton辛顿教授,

辛顿对李飞飞的ImageNet挑战赛很感兴趣,

他开始思考自己一直信奉的算法,

是否可以在ImageNet比赛上取得好成绩,

但学术界几乎所有人都对此嗤之以鼻,

因为辛顿在学界早就是过时老掉牙技术的代表了,

不过谁也没有想到,这位老头居然日后成为AI教父,

并且荣获图灵奖和诺贝尔奖双奖!

霍普菲尔德、辛顿 2024诺贝尔物理学奖

说来辛顿勉强也算是中国人的半个老朋友,

辛顿的高曾祖父是布尔代数的创始人乔治·布尔,

参与曼哈顿计划的核物理学家琼·辛顿是杰弗里的堂姑,

琼·辛顿师从费米,与杨振宁为同学,

而琼·辛顿的中文名大家更熟悉,名叫寒春,

寒春1948年随未婚夫阳早移居中国,投身农业机械化建设,

成为北京首位获得中国绿卡的外国人!

话扯远了,在2011年辛顿教授已经在神经网络上钻研了三十年,

但是一直无法获得学术界的广泛认可,

因为在当时,神经网络已经是被判“死刑”的技术。

黄仁勋与深度学习三巨头

04 老掉牙的技术

神经网络其实是起源于生物学,

1943年,神经生理学家沃伦·麦卡洛克和数学家沃尔特·皮茨

创建了神经网络的计算模型,他们利用电路模拟大脑神经元,

不过早期的模型都比较抽象,模型缺乏学习机制,

而且依赖同步时钟信号,与生物神经元的异步特性不符。

到了1958年,第一个采用神经网络结构的算法感知机(Perceptron)出现,

弗兰克·罗森布拉特教授从神经元工作方式得到启发,

搭建了单层神经网络感知机,

还成功在Mark I Perceptron计算机上实现,

1958年《纽约时报》头版宣称,

“感知机是胚胎计算机,未来可走路、说话、观察、写作!”

罗森布拉特的感知机直接掀起了60年代的AI热潮,

美国海军投入百万美元资助,引发学界与资本追捧。

05 AI寒冬

70年代初期,马文·明斯基和西摩尔·帕珀特对感知机进行了数学分析,

认为感知机无法解决异或(XOR)操作等非线性可分问题,

这一分析导致了研究的显著停滞,通常被称为“AI寒冬”。

单层感知机本质上是一个线性分类器,

决策边界只能是一条直线(或高维超平面),

而XOR问题在二维空间中无法被一条直线完全分割,

明斯基是MIT人工智能实验室联合创始人,

他把观点发布之后,几乎否定了感知机的所有实用价值,

学界基本上放弃神经网络,

转而探索符号主义AI,比如专家系统,

但是符号主义依赖人工规则,难以处理真实世界的模糊性,

进一步加剧了AI应用的瓶颈。

06 学新闻学的

所以在上世纪70年代后期,AI方面的研究几乎处于停滞状态,

当时的美国媒体也基本上是学新闻学的,

每次AI领域有一点突破,媒体立刻放大资本涌入,

人工智能领域多次经历这种炒作周期,

随后就是失望和批评,

一个技术往往几年甚至几十年后才重新获得兴趣。

明斯基和帕珀特的批判触发了AI寒冬,

但是并不代表神经网络和感知机毫无意义,

恰恰相反,神经网络和感知机正是这轮AI革命最早的起点,

只是当时大家的视野仍有局限性,

看不到神经网络未来的发展,

再加上公众和媒体往往功利性很强,

很多好技术最终也会被埋没,

好在这个世界上从来不缺像辛顿教授这样较真的人。

07 反向传播-1986

在上世纪80年代,AI寒冬短暂迎来复苏,

首先是霍普菲尔德在82年推出了霍普菲尔德网络(Hopfield Network)

(注:霍普菲尔德与辛顿同获诺奖),

而辛顿教授与特伦斯·塞诺夫斯基,

在85年推出了大名鼎鼎的玻尔兹曼机(Boltzmann Machine)。

次年,辛顿、鲁梅尔哈特和威廉姆斯推广了反向传播算法,

提出了多层感知机(MLP),

与之前的感知机不同,多层感知机使用非线性(可微分)激活函数,

能够解决复杂的非线性问题,还能学习内部表示。

鲁梅尔哈特还引入了循环神经网络(RNN)的概念,

希望提高网络处理序列数据的记忆能力,

MLP和RNN的提出,

直接成为了日后计算机视觉CV和自然语言处理NLP腾飞的基石,

也直接造就了如今的AI大模型时代,

不过在80年代,由于大家已经厌倦了神经网络的营销,

再加上反向传播BP需要大量的算力资源,

英伟达CUDA显卡还没有出来,没有硬件可以支持这样的算法,

所以多数学者仍然对辛顿的研究比较冷淡。

08 卷积神经网络-1998

等到神经网络下一次迎来跃迁,还要等到十年后,

1997年,Schmidthuber对RNN进行改进,

引入了长短期记忆网络(LSTM),

通过部分解决梯度消失问题提高了记忆能力,

成为自然语言处理的里程碑;

第二年,Yann LeCun开发了LeNet-5,

(Hinton、LeCun和Bengio日后一起获得2018图灵奖)

这是人类历史上第一个卷积神经网络(CNN),

与感知机神经网络相比,Lecun引入了卷积层的概念,

卷积(Convolution)本身其实是很基础的数学运算,

LeNet-5由7层神经网络组成,

分别是输入层+2个卷积层+2个池化层+3个全连接层,

用通俗语言来说,卷积层类似于侦探找线索,进行特征提取,

池化层类似总结报告,降维保留关键信息,

而全连接层是最终决策,整合所有信息做判断,

LeNet-5尤其适用于图像数据,

不过放在1998年,那时老黄英伟达才刚刚成立不久,

如果卷积神经网络层数增大,

仍然缺乏显卡来计算如此庞大的参数量,

所以遗憾的是,98年的卷积神经网络仍然没有引起大范围的注意。

09 深度学习-2000年代

进入21世纪,在80年代和90年代的理论基础上,

辛顿仍然没有放弃神经网络,

继续探索更深层的架构,

2006年,辛顿首次创建了深度信念/置信网络(Deep Belief Network,DBN),

这是一种通过堆叠受限玻尔兹曼机形成的生成模型,

深度学习的概念也是从这一时期开始萌芽的,

但实际上人工智能、深度学习、大模型这些范围很大的词,

都属于营销话术,真正的研究都有非常具体的方向,

比如反向传播这类研究属于优化方法,

DBN是早期深度学习的算法实体,

更具体来说是为了解决无监督特征学习问题,

后来常被泛化为“深度学习革命”的象征符号,

而且深度学习本身是个很大的概念,

单独拿出来讨论意义不大,大模型也是同理,

接下来的英伟达老黄发家史系列,

我也会给大家介绍各个领域的技术沿革发展。

DBN

10 2011年-AI浪潮前夜

辛顿的DBN首次证明深层网络也可以高效训练,

2009年,辛顿再提出深度玻尔兹曼机(Deep Boltzmann Machine,DBM),

DBM和DBN类似,但DBM是完全无向图,

所有相邻层均为双向对称连接,训练复杂度高,

这类生成模型也展示出无监督预训练的潜力。

不过放在当时,训练深度网络需要巨大的计算能力,

而传统的CPU根本无法高效做运算,

而GPU也尚未被广泛用于通用计算,

再加上这类“深度学习模型”需要大量高质量的训练数据,

当时想要获取标注足够的数据非常耗时而且成本极高,

所以在数据有限的情况下,复杂模型容易过拟合,

而使用传统Sigmoid或Tanh激活函数的深度网络中,

还容易出现梯度消失问题,

反向传播过程中梯度会指数级缩小,使得模型难以学习。

DBM

种种问题叠加之下,

多数学者都认为神经网络是效果不太好的黑箱模型,

决策过程难以理解,还需要大量的数据和计算资源,

想要取得突破几乎是不可能的事情,

但是在2011年,

属于黄仁勋、李飞飞和辛顿三条完全独立的人物线,

居然奇迹般地重合了,数据科学的三大难题——

算力(黄仁勋)、数据(李飞飞)和算法(辛顿),

也在人类历史上首次同时解决,

那么究竟是谁成就了这一切,

人类历史又是如何被改变的呢,

欲知后事如何,且听下回分解!

AlexNet团队

游戏&AI系列:

老黄发家史——英伟达市值突破4万亿,老黄的传奇人生!

老黄发家史——传奇AMD工程师,老黄人生的第一份工作!

老黄发家史——世嘉主机拯救英伟达,老黄曾差点破产!

老黄发家史——FPS天才成就英伟达,N卡的诞生!

老黄发家史——N卡大战A卡,上古芯片巨头ATI!

老黄发家史——英伟达创造显卡,PC游戏的崛起!

老黄发家史——极客玩家的一次灵感,启发英伟达进军AI!

老黄发家史——让玩家为 AI 买单,老黄成功的秘诀!

老黄发家史——CUDA崛起,英伟达AI的护城河!

老黄发家史——华人AI教母李飞飞,老黄发家的贵人!

AI——是游戏NPC的未来吗?

巫师三——AI如何帮助老游戏画质重获新生

你的游戏存档——正在改写人类药物研发史

无主之地3——臭打游戏,竟能解决人类大肠便秘烦恼

一句话造GTA——全球首款A游戏引擎Mirage上线

AI女装换脸——FaceAPP应用和原理

AI捏脸技术——你想在游戏中捏谁的脸?

Epic虚幻引擎——“元人类生成器”游戏开发(附教程)

脑机接口——特斯拉、米哈游的“魔幻未来技术”

白话科普——Bit到底是如何诞生的?

永劫无间——肌肉金轮,AI如何帮助玩家捏脸?

Adobe之父——发明PDF格式,助乔布斯封神

FPS游戏之父——谁是最伟大的游戏程序员?

《巫师3》MOD——制作教程,从零开始!

#gd的ai&游戏杂谈#

更多游戏资讯请关注:电玩帮游戏资讯专区

电玩帮图文攻略 www.vgover.com