引子:在迷雾中寻找光的轨迹
人工智能的演进史是一部充满悖论的启示录:图灵用停机问题为计算划定边界,却意外点燃了智能革命的导火索;罗森布拉特的感知机本欲模仿神经元放电,最终却演变成深度学习中抽象的矩阵运算;辛顿在冷板凳上坚守神经网络四十年,等来的却是算力与数据暴力破解智能密码的"苦涩教训"。这些戏剧性的转折揭示着一个残酷的真相:我们对智能的理解,始终在知其然与不知其所以然之间徘徊。
当下人工智能狂欢背后暗涌着深刻的认知危机:当 GPT-4
能通过律师资格考试却无法理解“正义”的哲学内涵,当Stable Diffusion
创作出媲美莫奈的画作却对光影美学毫无感知,我们不得不追问——这究竟是智能的曙光,还是复杂曲线拟合制造的认知幻觉?
这次人工智能“考古”之旅,既是向那些在寒冬中守护火种的先驱者致敬(从图灵到辛顿),更是对当下AI神话的祛魅仪式。在本文中,我们将看到:
Transformer
在这个深度学习主导的“暴力美学”时代,重访人工智能发展的潮起潮落,不仅是为了理解技术演进的内在逻辑,更是为了在算法黑箱与人类认知的裂隙中,寻找智能本质的蛛丝马迹。本文将系统地梳理人工智能发展的三次高潮与两次低谷,剖析符号主义、连接主义、行为主义三大流派的哲学分野,并探讨哥德尔不完备定理对强人工智能的理论约束。通过跨学科的视角,试图在数学的严谨、神经科学的实证与哲学的思辨之间,勾勒人工智能演进的探索过程以及可能图景。
1900年,数学家大卫·希尔伯特于向国际数学界提出了著名的“二十三个数学问题”,其中第二个和第十个问题与人工智能的理论可能性和实现可能性紧密相关:
1931年库尔特·哥德尔提出了著名的哥德尔不完备定理证否问题二。哥德尔不完备定理表明,在任何足够复杂的形式系统中,总存在一些命题无法在这个系统内部被证明或证伪,即该系统是不完备的,一定存在逻辑矛盾的表述。典型示例如语言符号系统中的说谎者悖论:“这句话是假的”。
1970年尤里·马季亚谢维奇证明了无法通过固定的算法步骤来判断所有丢番图方程是否具有整数解,从而证否了问题十。问题十和图灵停机问题是等价的。图灵停机问题(Halting Problem)是图灵于1936年提出的,该问题是说:是否存在一个算法对于任意给定的程序和输入,可以判定程序最终会停止运行(停机)还是会无限期地运行下去。图灵自己通过反证法证明图灵停机问题是不可判定的。
这两个问题都在理论上被证否了,也就是说:
罗杰·彭罗斯在《皇帝的新脑》中论证,基于哥德尔不完备定理,人类心智具有超越算法的能力。这就引出一个根本问题:如果人类智能确实超越了算法计算,那么模拟人脑的努力是否有内在的理论限制?或者说,我们是否需要开发出本质上不同于现有计算范式的新型智能系统?
此外罗杰·彭罗斯提出的"意识的量子理论"暗示大脑可能利用了量子效应。虽然这一观点仍有争议,但它启发我们思考:未来的人工智能是否会利用量子叠加、纠缠甚至意识的量子基础,创造出全新的智能形式?这种"量子计算"可能比现有的基于经典计算的人工智能拥有本质上不同的能力边界。
由于目前理论上对机器计算能力的这种约束,有人认为机器模拟智能是不可能的。但图灵反驳说:“尽管已经证明任何一台特定的机器能力都是有限的,但并没有任何证据说,人类智能就没有这种局限性。”
图灵机计算模型为现代计算机科学奠定了理论基础。但图灵机的提出可能是计算机科学史上最大的讽刺之一,因为图灵本来是为证明有些事情(停机问题)是计算机永远也做不了的,而设计的一种定义机械计算过程的抽象计算模型。图灵机的基本思想是模拟人类日常的“计算”行为,通过一根无限长的纸带、一个读写头以及一组状态转换规则来模拟任何算法的“机械”计算过程。
纸带
读写头
状态寄存器
状态转换规则集
在每个动作完成后,根据当前所关注的纸带某个位置上的符号以及寄存器中存储的状态(类似人短期记忆中的状态),来决定下一步的动作是什么。
设计图灵机的初衷是为了探讨机器计算的边界,即机器计算不可以(反面即可以)实现哪些算法。由于图灵机计算模型非常直观、易于理解,而且很容易通过机械或者电子技术来实现。因此,它迅速成为机器解决“如何计算”问题的基础,在计算理论上也成为了可计算性的对标物。
这就引出了“图灵完备”这一概念,如果一台设备实现了图灵机计算模型定义的行为,则称该设备是图灵完备的,理论上它可以解决所有可计算问题。当一个新的计算模型出现时,人们通过它是否能够解决所有可计算问题来判定它是否是图灵等价或者图灵完备的。今天,如果称一门程序设计语言是图灵完备的,意思是所有可计算的算法都能够用这种语言来实现 。
图灵给出了用机械操作来模拟人类用纸笔运算过程这一解决可计算问题的计算模型“图灵机”,而冯·诺依曼则给出了实现这一计算模型的物理架构“冯·诺依曼架构”,于是通用计算机的“灵魂”与“躯体”就都有了。虽然通用计算机不能解决所有问题,但它至少可以解决可计算问题,也就是说可以解决现实世界中可被符号化中的可计算的那一部分问题。
前面提到图灵机在理论上可以解决所有可计算问题,但这个“理论上”是在“无限纸带”的前提下才可能实现的,换句话说就是在计算资源无限供应的情况下可解。而在现实中,这个约束条件对于求解那些计算规模超级大的算法是很不现实的。由 Steve Cook 于 1971 年提出的 NP 问题就是这样一类问题,用计算机来求解它们是非常低效的,甚至因计算规模随输入规模呈指数级增长而变得完全不可行。P vs NP 问题猜想被列为计算机科学和数学领域的核心难题,是克雷数学研究所列出的七大千禧年难题之一,该所为这七大世纪难题的每一个都悬赏一百万美元的奖金。
定义
例子
定义
P ⊆ NP
例子
定义
特点
含义
自 NP 问题提出起,人工智能领域的研究人员就利用 NP 完全问题理论来研究他们的课题,结果发现不管哪个领域:问题解决、玩游戏、规划、学习、推理等,似乎任何关键性的问题都是 NP 完全问题。这种现象使得业界流传着一个笑话:所谓的“AI完全问题”意味着“一个和AI本身一样难的问题”,如果你能解决一个AI完全问题,你就能解决所有AI问题。
当前人工智能中的最关键的神经网络算法虽然不属于NP完全问题(NPC),但其训练过程与NP问题的求解在计算复杂度和近似解策略上高度关联。神经网络训练属于非凸优化问题(通常为NP难问题),二者虽不属于同一复杂性类别,但均面临“搜索空间庞大”和“缺乏确定性高效算法”的共性挑战:
参数空间的维度爆炸与计算复杂度
近似解策略
关于何为智能,图灵和香农观点不一样。香农倾向于强人工智能(通用人工智能),认为应该包括艺术、情感、音乐等。而图灵则不这么认为,他在反驳香农时是这么说的:
“不!我对如何建造一颗无所不能的大脑完全不感兴趣,我只要一颗并不太聪明的大脑,和美国电报电话公司董事长的脑袋那样差不多就行了!”
图灵用一向的“逆向思维”(前面他就用反证法证明了图灵停机问题的不可判定),不从正面给智能下定义,而是根据外部行为来判定机器是否拥有智能,这就是论文《计算机器和智能》中给出的“图灵测试”:
“如果人类由于无法分辨一台机器是否具备与人类相似的智能,导致无法分辨与之对话的到底是人类还是机器,那即可认定机器存在智能。”
“图灵测试”为衡量机器是否具备智能提供了一种标准。常见的图形验证码就是图灵测试的一种典型应用,验证码的英文单词“Captcha”就是“通过图灵测试来完全自动地分辨出计算机和人类”这句话的首字母缩写(Completely Automated Public Turing test to tell Computers and Humans Apart)。后来著名的“中文屋”实验也采用了这个思路。
彼时,图灵对智能的关注点在于思考,这里的思考不是从内部的结构模式出发考察的,而是从外部可观察到的行为着手,即机器通过学习而获得某项技能,并通过将这项技能表现出来的智能行为。所以图灵在论文中重点论证了建造“学习机器”(Learning Machines)的可行性,更具体地说,是论证机器依靠学习进化而最终通过图灵测试的可能性。
由于形式系统的不完备性以及存在不可判定的计算问题,因此世界上总有些问题是无法被机器模拟的。那回到图灵与香农最初探讨的问题:人类的智能是否能够被某种模型所模拟(抽象)?
像说谎者悖论“这句话是假的”、罗素的理发师悖论“理发师只给那些不给自己刮胡子的人刮胡子”这样涉及自指的问题,一般都要上升一个层面或维度才能解决。这有点像自我意识套娃:我在思考我在思考。对这个问题,图灵的回答是“人也不是完备的”。对于机器是否必须具备和人类一样的思维意识才能算人工智能,语言和认知学家诺姆·乔姆斯基的回答是“潜艇能够游泳吗?”
而澳大利亚哲学家大卫·查尔默斯提出"意识难题"质疑:即使我们完全理解了大脑的物理机制,仍无法解释为何会产生主观体验的感受性。这对人工智能提出了根本挑战:即使人工智能系统表现出与人类相似的行为,我们有理由相信它拥有类似人类的主观体验吗?托马斯·内格尔也在其著作《成为一只蝙蝠是什么感受》中提出,主观体验是无法通过客观描述来完全理解的。他认为,即使我们能够完全了解蝙蝠的大脑结构和功能,也无法真正知道“成为一只蝙蝠是什么感受”。意识产生于有主观体验的智能体:拥有主观上的内在感受性,重点就在于对内在心理现象的感知。 这暗示我们可能需要超越计算理论的框架来理解意识本质,而这正是强人工智能与弱人工智能之争的核心。(非确定性 VS 确定性,可以用量子物理 VS 经典物理来类比思考)
智能的本质究竟是计算、理解、模拟、创造还是感受?从计算的角度看,图灵机模型暗示了智能的可计算性;从现象学角度看,智能与体验、意图不可分割;从演化角度看,智能本质上是适应性解决问题的能力。这些不同视角暗示我们可能需要一个多元、立体的智能观,而非单一的理解框架。未来人工智能的重大突破很可能来自跨学科交叉融合。特别是将数学理论、神经科学的大脑工作机制、心理学的人类认知模式、哲学的本体论思考与计算机科学的实现方法相结合,可能是走向通用人工智能的必由之路。
在强大的军事需求的刺激下,二战后不久,系统论(1945)、信息论(1948)、控制论(1948) 这“信息学三论”的开创性著作相继发表,使之前零散研究摸索的信息科学得以系统有序起来。从此信息计算、人工智能、控制自动化相关领域飞速发展,当然发展的过程也是跌宕起伏。人工智能的发展是一部充满希望与挫折的探索史,凝聚了无数科学家的智慧与坚持。从图灵机的理论奠基到深度学习的爆发,人工智能历经三次高潮与两次低谷,展现了人类对智能本质的不懈追求。
核心事件
1950年
1956年:
1960年代:
1960年代:
低谷原因:
核心事件
1980年代:
1986年:
低谷原因:
核心事件
2006年:
2012年:
2016年:
2017年:
2020:
2022年:
2024年:
当前挑战:
根据不同的理念,人工智能的发展过程中出现了三种流派:符号主义演绎着人类心智的逻辑架构(人心),连接主义编织着神经元网络的结构密码(人脑),行为主义则捕捉着机体与环境互动的反馈奥秘(人身)。如果说心智派在研究模拟智能的软件,结构派在研究模拟智能的硬件,那行为派就是在模拟智能生物的身体了。
用神经元模型的发明者、数理逻辑学家沃尔特·皮茨(Walter Pitts,1923—1969)话来总结:“在我们面前有两条通向智能的路径,一条是模拟人脑的结构,一条是模拟人类心智,但我相信这两条路最终是殊途同归的。”从人工智能的发展历程上看,皮茨的总结非常有预见性,人工智能的探索历程就是结构派和“心智派交替提出新理论和新发现,交替占据主流地位的发展史,而具身智能的发展又离不开行为派的贡献。
符号主义 | 演绎 | |||||
连接主义 | 归纳 | |||||
行为主义 | 反馈 |
值得注意的是,当代人工智能发展实际上正逐步融合这三大流派的优势。符号主义的可解释性、连接主义的抽象能力与行为主义的环境互动,正通过类似于神经符号系统(Neurosymbolic AI)等新范式相互补充。理想的人工智能系统可能需要既能从数据中抽象学习(连接主义),又能进行逻辑推理(符号主义),同时能在环境互动通过反馈强化学习(行为主义)。
在人工智能的发展历程中,基于符号的智能研究曾经是大多数学者努力的方向,甚至在长达30年的时间里,符号主义的学说在人工智能这个学科里是占统治地位的。
符号主义学派的思想和观点直接继承自图灵,提倡直接从功能的角度来理解智能,简而言之就是把智能视为一个黑盒,只关心这个黑盒的输入和输出,而不关心黑盒的内部结构。为了实现智能,符号主义学派利用“符号”(Symbolic)来抽象表征现实世界,利用逻辑推理和搜索来替代人类大脑的思考、认知过程,而不去关注现实中大脑的神经网络结构,也不关注大脑是不是通过逻辑运算来完成思考和认知的。概括来说,符号主义的理念是:“认知即计算”,符号主义的思路是:“描述已知,推理未知”。
对于符号主义学派长达数十年的探索研究过程,根据研究问题的不同,可以将其划分为三个阶段:
推理期:
知识期:
学习期:
而根据研究思路的不同,可以分为两个支派:
认知派:
逻辑派:
启发式搜索的概念就是使用“经验法则”来指导搜索的重点。通常我们也无法寻找到直指正确搜索路径的方法,但我们往往可以在感兴趣的问题上找到启发式搜索方向,从而大大减少搜索量。
连接主义这一派主要是研究人类大脑神经网络结构的学者,他们主张从生物结构角度出发,让机器先去模拟人脑构造,再在“大脑是如何处理信息”的过程中获得智能。他们用神经元细胞要么发射信号、要么不发射信号的离散、二元的特征,比拟“与”、“或”、“非”这些最基础的逻辑门的性质。因此,神经元网络就像由逻辑门构成的网络。
麦卡洛克和皮茨的《神经活动中内在思想的逻辑演算》一文被认为是连接主义研究的开端,首次提出了“神经网络”(Neural Network)这个概念,提出了被后人以两人首字母命名的机械式的思维模型:“M-P神经元模型”。但在一次探索眼神经功能的蛙眼实验之后,皮茨对大脑是唯一的神经信号处理中心的信念破灭了,他意识到纯粹的逻辑、纯粹以大脑为中心的思想观是有局限性的。再加上维纳的支持纳粹的妻子作梗,皮茨、麦卡洛克与维纳交恶,皮茨在情感上、学术方向上都备受打击,一颗巨星就此陨落。
神经网络学习的基本原理就是从训练数据集中提取出分类特征,这些特征应该能够适用于相同分布的测试数据集,所以经已知数据学习训练(即预训练)后的神经网络可以对同类的未知数据有效。神经网络学习是基于特征匹配的概率,它不是基于逻辑推理,因为它能做分类识别,但无法理解。
康奈尔大学的实验心理学家罗森布拉特在“M-P神经元模型”的基础上实现了一种称为“感知机”(Perceptron)的单层神经网络模型。 皮茨和麦卡洛克曾向人们展示了M-P神经元可以通过不同的连接方式和权重来实现逻辑与、或、非运算,罗森布拉特的感知机基本原理,就是利用了神经元可以进行逻辑运算的特点,通过“赫布法则”(Hebb’s Law)的学习机制,调整连接线上的权重和神经元上的阈值,做到不依靠人工编程,仅靠机器学习来完成一部分机器视觉和模式识别方面的任务,这就展现了一条独立于图灵机之外的,全新的实现机器模拟智能的道路
1949年,赫布出版了《行为组织学》(Organization of Behavior)一书。在该书中,赫布总结提出了被后人称为“赫布法则”(Hebb’s Law)的学习机制。他认为如果两个神经元细胞总是同时被激活的话,它们之间就会出现某种关联,同时激活的概率越高,这种关联程度也会越高。
罗森布拉特因感知机获得巨大的成功,并获得美国军方的支持。但成也感知机,败也感知机。明斯基对高调的罗森布拉特研究感知机存在的价值和前途发起了攻击,他在《感知机:计算几何学导论》一书中在数学上证明了基于单层神经网络的“感知机能解决线性可分的问题,但是它也仅仅能解决线性可分的问题。”更准确地说是单层的感知机只能处理在特定特征上线性可分的数据集,并不能处理非线性数据的分类问题,其中最典型的就是“异或问题”,而多层神经网络的感知机需要巨大规模的计算与数据,受当时的算力与数据规模限制,根本不可能想象,就更别说实现了。明斯基在第一版中明确说“这里(指罗森布拉特的理论)的大部分内容都没有多少科学价值。”
如果把逻辑与、或、非运算输入数据,按照0、1值构成二维的坐标平面,并把逻辑运算结果为1的用红色方块表示,结果为0的用蓝色圆圈表示,就形成了二维的图表,这三种逻辑运算都能够很直观地通过一条直线将这个二维坐标平面中的数据划分开来。 而异或则不能。
由于明斯基在人工智能领域的特殊地位与影响(第四届图灵奖获得者),罗森布拉特被整个人工智能学术界声讨。1971年,43岁的罗森布拉特在一次划船事故中不幸遇难。也许出于愧疚心理,明斯基在《感知机》第二版中删除了攻击罗森布拉特的话,并在扉页上手写了“纪念弗兰克·罗森布拉特”。连接主义与神经网络也和罗森布拉特一样备受打击,这一场风波可以说至少延误神经网络研究十年以上的发展。
不久,1973年受英国政府委托的数学家詹姆士·莱特希尔发表了赫赫有名的《莱特希尔报告》,这篇公开的报告是一份具有广泛影响力的、直接刺破人工智能乐观思潮泡沫的调查文件,被视作人工智能寒冬的开启。
1948年,图灵在论文《智能机器》里把研究智能的方向划分成了“具身智能”(Embodied Intelligence)和“非具身智能”(Disembodied Intelligence)两类。
行为主义学派是1948年以“控制论之父”维纳的《控制论》的出版发行为起源标志的,因此又常被称为“控制论学派”,根据其学说特点,有时候也被称作“演化主义学派”。 控制论是在二战中英国防空战争中因研制自动火控系统而发展起来的。在《控制论》一书中,维纳对“机器能不能拥有智能行为”这个问题给予了正面的回答,提出了“智能性原则”:由信息、通信、控制和反馈构成的感知(输入)-行动(输出)系统就是智能的。只要能够对环境的外部输入给予预期中的输出,这就是智能的体现,而无须去纠结是这样的系统是机器还是生物体。
后期的控制论是一种统计理论,它关心的不是系统根据单独一次输入后产生的动作,而是对全部输入整体上能够做出合乎统计概率预期的动作。在这个系统中,因果联系不再是完全确定的,它同时具有统计上的确定性和个体上的不确定性,因而是一种统计上的因果关系。在控制系统中引入统计属性,从根本上改进了机械式的因果观念。此外行为主义还认为人工智能是应该和人类智能一样,依靠演化获得,通过遗传过程的随机变异和环境对个体物竞天择的自然选择,逐代筛选出更快速、更健壮、更聪明的个体。iRobot创始人布鲁克斯曾经这样批判知识系统:预装全部知识是不可能的,也不是实现智能的正确途径,应该通过在环境中交互,通过试错反馈演化,即强化学习。
图灵在《计算机器和智能》中首次提出了“学习机器”(Learning Machines)的概念,以极具预见性的眼光洞察到能否实现人工智能的关键,很可能就取决于能否或者说何时解决“如何让机器拥有学习能力”这个问题。
司马贺是最早(1959年)在学术上给出符合今天机器学习思想的定义:
如果某个系统可以从经验中改进自身的能力,那这便是学习的过程。
但司马贺没有具体限定经验、改进等要素。1998年卡内基梅隆大学的汤姆·米切尔在他撰写的《机器学习》中额外增加了几个具有可操作性的辅助描述符号:
机器学习就是一种可以让机器根据历史经验自动改进自身的学习算法。
他们俩都是从机器学习的本质出发,即从“是什么”、“做什么”的角度来定义机器学习这个概念。还有一种方式是从“怎么做”这个角度来定义。在李航老师的《统计学习方法》一书中,就提出机器学习由“模型”、“策略”和“算法”三个要素构成:
机器学习=模型+策略+算法
模型:是指机器学习所要产出的内容,它以一个可被计算的决策函数或者条件概率分布函数的形式存在。把未知的新数据代入到这个模型中计算,就会得到符合真实情况的输出结果。
策略:是指要按照什么样的准则进行学习,也就是按照什么样的准则评估选择出最优的模型。从宏观角度讲,一般我们都会以“减少模型的输出结果与真实情况差距”以及学习复杂度作为学习的准则,这里的“差距”同样也是以一个可被计算函数的形式来描述的,被称为“损失函数”或“成本函数”。
算法:是指如何把最能拟合真实世界的参数系数确定下来。在确定寻找最优模型的策略后,机器学习的问题便归结为寻找出最优参数的优化问题。
在大方向上,机器学习最初是从基于规则的机器学习开始的,现在正在朝着基于数据的机器学习在持续迈进。基于规则演绎和基于数据归纳两种思维,分别对应了人类对现象规律(可计算的)和对现象表现(可统计的)的研究,也反映了符号主义学派和连接主义学派各自对机器学习的看法。
如果把一切都看成由输入变换到输出的函数,那么符号主义是试图通过数学建模逻辑推导出这个函数,而基于神经网络的连接主义则是试图通过输入与输出来逆向拟合出这个函数,高效拟合的手段大多采用反向传播,这整个过程也称为模型训练。
机器学习中所说的模型训练,是指从真实世界的一系列历史经验中获得一个可以拟合真实世界的决策模型 。上节提到模型训练过程是通过输入与输出来逆向拟合出目标函数:Function(输入) = 输出,而 Function 是由:参数+系数+操作符 构成的,也就是确定参数、系数和操作符的过程。对于模型训练来说,这可以通俗理解为确定特征参数、优化系数、选择策略方法,因此模型训练主要聚焦在如下问题上:
模型选择是采取一种适当的学习策略,在大量数据的支持下,从假设空间(可选的决策/损失函数的全集)中筛选出一个最佳的模型。如何确定最佳模型的标准、用何种方法来学习得到这个最佳的模型,就是选择损失函数、理解其含义、如何求解和优化损失函数,从而得到满足损失函数最小值的模型。
一个模型的性能(performance)是指其泛化能力,也就是对满足相同分布规律的、训练集以外的数据的适应能力。 “适应能力高低”是指模型输出值与实际值之间的“误差”(Error)的大小。“误差”是一个在统计学中被精确定义的概念,它在机器学习这个语境更加强调泛化而不是在训练集中,因此这里它被称为“期望泛化误差”。误差是偏差、方差和噪声的总和:
误差(Error)=偏差(Bias)+方差(Variance)+噪声(Noise)。
选择最优模型复杂度的一个最基本的准则就是偏差和方差之和最小,即要同时警惕避免发生训练过少导致模型复杂度过低(参数少)而欠拟合和训练过度导致模型复杂度太高(参数多)而过拟合的情况发生。“控制模型复杂度”可以视为机器学习中除了“让模型的输出结果与实际结果差异最小”之外的第二重要的目标。
现代科学已经基本确定了人的视觉系统的信息处理是分级的,从最低级像素提取边缘特征,再到稍高层次的形状或者目标的部分等,再到更高层的整体目标,以及目标的行为和其他特征的联想等。换句话说,高层的特征是低层特征的组合提炼,从低层到高层的特征表示越来越抽象,越来越能表现出认知的意图。抽象层面越高,存在的可能猜测就越少,就越利于分类。 深度学习通过多层神经网络结构模拟了人类处理外界信息的“分层迭代、逐级抽象”过程。这里的关键词有两个,一个是“抽象”,一个是“迭代”,从原始信号输入开始,先做低级的抽象,逐渐向高级抽象迭代。
深度学习属于神经网络的一个子集,而神经网络又是机器学习的一个分支。
机器学习
神经网络
深度学习
人工神经网络(Artificial Neural Network)这个概念最早是在皮茨与麦卡洛克合著的论文《神经活动中内在思想的逻辑演算》中首次提出,随后,由于罗森布拉特和他的感知机引起了全社会的广泛关注,促成了连接主义的第一波热潮。后来由于明斯基对单层神经网络的缺陷证明以及其个人的影响力,而多层神经网络受当时数据和算力规模限制而不可想象,神经网络跌落低谷,很多学术期刊拒绝接受标题中带神经网络字眼的论文。但在以多伦多大学杰弗里·辛顿教授(“深度学习教父”,坐了40年冷板凳)为首的一批神经网络信仰者的共同努力下,神经网络最终以深度学习的面目重返人工智能的舞台,并暂时占据主角地位。由于神经网络曾经在人工智能圈的坏“名声”,他们更愿意被称呼为机器学习下的深度学习,而非人工智能下的神经网络。
2006年被认为是深度学习时代的元年,是以辛顿在这一年发表的两篇论文为标志的。
辛顿在两篇文章中提出了以下两个主要的观点:
得益于大数据、GPU计算硬件的支持,在 2012 年的 ImageNet 挑战赛中,基于深度学习的 AlexNet 模型以巨大优势赢得了比赛,标志着深度学习时代的到来。可以说当今基于深度学习大模型的人工智能框架是:数据(人工) + 算力(GPU)+ 算法(模型)。
2018年深度学习三巨头因为“在概念和工程方面使深度神经网络成为计算的关键组成部分”而获得图灵奖。辛顿的感言是"我们终于不用再假装在研究别的东西了"。
杰弗里·辛顿:
杨立昆:
书亚·本希奥:
随着 ChatGPT 和 Deepseek 的爆火,人工智能已经天下闻名,人人趋之若鹜。但深度学习达到了或者说能实现通用人工智能的目标么?我深表怀疑,理由如下:
严重依赖大规模的数据
严重依赖高质量数据的预训练建模,不具备迁移或多任务能力
不可解释和不可验证
缺少理论基础
还原论方法局限:复杂系统科学揭示了涌现现象
而今的深度学习本质上是将特征直接映射到基于统计数据建立的模型中概率最大的输出,它更多的是一种计算框架,而非理论框架。它尚不具备采集数据、过滤数据、通过反思反馈更新模型、理解意义的能力。不过,尽管深度学习存在上述局限性,它在特定领域已经展现出惊人的能力。在图像识别、自然语言处理和语音合成等方面,深度学习模型已经达到或超越人类水平,它也为医疗诊断、药物发现和气候模拟等领域带来了革命性突破。
由于对基于统计的人工智能研究路线的不认同,强化学习之父理查德·萨顿(Rich Sutton)于 2019年在《苦涩的教训》(The Bitter Lesson)一文中认为:AI研究历史告诉我们,长期来看,最有效的方法不是人为地加入特定知识,而是依靠更通用的方法与越来越强大的计算力。他认为智能是不断根据环境反馈调整行为模式来实现目标的能力。
在该文,萨顿总结了如下经验教训:
过去的误区:
成功的关键:
萨顿认为应该打造能自主试错、学习世界模型的人工智能,而非直接教给它人类已经知道的东西。可以说,这是一条重新发明人类的过程。未来人工智能的发展方向,最具前途的是“记忆化搜索”:
记忆(Memory):
搜索(Search):
强化学习(Reinforcement Learning, RL)也是一种机器学习方法,它是让智能体(agent)在与环境的交互过程中通过试错来学习,不断优化策略以最大化累积奖励从而达成目标。不同于监督学习和非监督学习,强化学习强调的是智能体在没有明确指导的情况下自主探索环境,并从中学习最佳行为策略。这一过程直接体现了萨顿提到的智能三个核心特征:
目标导向
动态调整
反馈驱动
随着计算能力的提升和大数据时代的到来,强化学习与深度学习的结合带来了革命性的变化,使得强化学习成为了当前AI研究和应用的一个重要方向。
2024年图灵奖授予了强化学习领域的两位奠基人:理查德·萨顿和他的导师安德鲁·巴托(Andrew Barto)。巴托和萨顿的研究成果不仅奠定了强化学习的理论基础,还促进了这一领域的实际应用。例如:
Actor Critic 架构是巴托和萨顿获奖的作品之一。它是一种结合了价值方法和策略梯度方法优点的强化学习架构。它由两个主要组件组成:Actor 和 Critic。
Actor
Critic
在该框架下,模型与环境交互并观察,但不是用交互的直接结果当作激励,而是根据自己的价值函数(价值观)来评估直接结果与长期回报之间的差距,从而调整策略。引入价值方法,就是要人工智能能关注长期回报而非短期奖励。用萨顿的话来说就是:“In reinforcement learning, rewards are sparse, but the returns can be rich."(在强化学习中,奖励虽稀疏,然回报却可丰厚)。
物理学家马克斯·普朗克说,“科学每经历一次葬礼就前进一步。”人工智能的发展历程是“瓶颈-探索-突破”的循环:每一次低谷都催生了新的技术方向,而每一次高潮都离不开先驱者的坚持与跨学科的协作。无论是符号主义的严谨逻辑、连接主义的生物仿生,还是行为主义的互动反馈,三大流派的竞争与融合,共同勾勒出人类探索智能疆域的壮丽图景。
人工智能七十载跌宕起伏的探索史,本质上是人类在数学约束与哲学迷思中寻找自我认知镜像的过程,恰似普罗米修斯盗火与纳西索斯临镜的双重寓言:我们既在创造照亮未知疆域的技术之火,也在算法之境中不断重构对人类意识的认知。这场无止境的探索终将证明:每次试图定义人工智能的尝试,都是对人类认知边界的重新丈量。就像古希腊人在德尔斐神庙镌刻的箴言:“认识你自己”,人工智能时代的终极命题,依然是那些连人类自己都尚未弄明白的终极哲思:何为智能?、何为意识?、何为人类?
转发本文,仅供交流,文中观点仅为作者本人观点,不代表本网观点。如有侵权,请联系删除。
关注公众号
即时获知最新推送
休闲时刻
陶冶艺术情操
Copyright © 2015 Science And Technology Investment Network.All Rights Reserved 版权所有:数智化网
地址:北京市海淀区翠微中里14号楼