01
本文内容整理自MustafaSuleyman在JulesTerpak频道的专访 文章仅代表作者本人观点
01
主持人:大家好。我和穆斯塔法·苏莱曼在一起。你很年轻,但更早的时候,你就已经深入参与了人工智能现代时代的开端。你是DeepMind的三位联合创始人之一,该公司于2014年被谷歌收购。2022年,你联合创办了InflectionAI,该公司最近在2024年3月与微软达成了一项独特的协议,微软可以使用Inflection的模型,并雇用了这家初创公司的大部分员工,包括你。现在你被任命为微软人工智能的CEO。这些你都知道,但这是为了方便我的听众了解。
穆斯塔法·苏莱曼:(笑)你好像在讲述我的人生故事。听起来比我实际感受到的要戏剧化得多。
主持人:我正想问,15年前,你是否清楚地预见到会有这样一条发展道路?
穆斯塔法·苏莱曼:嗯,这个问题很有意思。确实存在很多种可能性。我大概在2009年就很早下定决心,要深入参与科技领域。我在2007、2008、2009年见证了Facebook的崛起,我能看到它的增长速度惊人,并且确实改变了人们交流、联系和保持联系的方式。
平台如何微妙地塑造我们分享内容的方式——不仅仅是如何分享,还包括内容的类型——都在发生变化。这对我来说是一个顿悟时刻,我真正意识到我想成为这场巨大变革的一部分。当时感觉这主要是关于数字化。
但很快我就意识到,这种变革的终极形态是教会机器去学习,并希望能借此解决世界上重要的挑战,让世界变得更美好。这是我当时的想法,那时我还很年轻,大概24岁。
穆斯塔法·苏莱曼 图片来自网络
02
微软和OpenAI之间的关系
主持人:这太不可思议了。谈到你目前在微软的职位,当普通消费者想到微软时,他们可能会想到2023年对OpenAI高达数十亿美元的投资,这是始于2019年合作关系的延续。根据最近的条款,该合作关系将以目前的形式持续到2030年。那么对于普通消费者来说,你能否澄清一下他们应该如何看待微软和你的聊天体验Copilot,以及OpenAI和他们的聊天体验ChatGPT之间的关系?它们在多大程度上是相互交织的,又在多大程度上是竞争对手?
穆斯塔法·苏莱曼:这是个好问题。微软已经有近50年的历史了,它经历了我们一生中所有重大的技术变革,从图形用户界面(GUI)的发明到操作系统,从大型机到笔记本电脑,再到云计算。它几乎一直伴随着这些变革。
微软的核心是一家企业级公司,尽管我们也有相当大的消费者业务,每天有数亿用户使用Windows、Word和Excel等产品。但相对没有得到太多关注的部分是消费者人工智能。这正是我负责的领域。在公司内部,我们有许多不同的人工智能模型,但最大、使用最广泛的是OpenAI的模型。
我认为萨蒂亚在2019年决定进行这项投资时,展现了非凡的洞察力。他们向一个当时尚未交付任何大型语言模型(LLM)、GPT或显著成果的非营利组织投入了10亿美元。我认为,这在一定程度上是对DeepMind当时优异表现的回应。在2016、17和18年,我们在围棋、蛋白质折叠以及各种其他出版物和研究中取得了一系列突破。
当时普遍存在一种焦虑感,认为人工智能浪潮即将达到顶峰,微软需要支持一个主要的“领跑者”。我认为这需要很大的勇气,因为通常一家大公司会倾向于支持内部团队。但微软认识到,如果不分散投资,不同时支持核心的微软研究院和这个令人惊叹的合作关系,就有可能陷入创新者窘境的风险。
03
AI研究实验室vsAI公司
主持人:正如刚才提到的,在你的职业生涯中,你参与了多个最具影响力的人工智能研究实验室和公司。再次谈到OpenAI,他们被独特地描述为一个既像实验室又像公司一样运营的机构,这在该领域是一种独特的混合模式。似乎随着商业压力的增加,研究实验室可能越来越难坚持他们的研究使命。你对这种紧张关系有什么看法?如何才能保持研究实验室的价值?
穆斯塔法·苏莱曼:是的,非常有趣的问题。我认为重要的是要记住,首先,像DeepMind、OpenAI,然后是Anthropic这样的实验室,作为商业实体实际上是没有先例的。我们将DeepMind创立为一家商业实体,其目标几乎就是为了研究本身而追求研究。这在当时是前所未有的。
我认为随着时间的推移,当OpenAI意识到他们必须盈利、必须扩大影响力并建立可持续的收入模式时,他们已经开始转型。但是,当一项技术处于其发展的不同阶段时,不同的组织结构是合适的。当它还处于非常开放的探索阶段时,你可以回顾OpenAI历史上的一些重要转折点。
例如,他们停止了在游戏方面的研究。他们停止了在机器人技术方面的研究。他们停止了在模拟方面的研究。这些都曾是整个公司投入一到两年时间的重大赌注。真正产生巨大影响的是大型语言模型(LLM)的赌注,而这个想法实际上他们是从谷歌那里借鉴的——就像我们在研究中相互学习一样。这不是坏事,研究就是这样运作的。
谷歌在2017年发表了关于Transformer架构的论文。当时并没有引起广泛关注。但到了2019年和2020年,OpenAI已经开始将该论文中的思想转化为GPT-2及后续GPT-3的早期版本。这就是研究的运作方式。但是,一旦某项技术真正开始奏效并显示出商业潜力,那么所需的组织结构就会发生变化。
你需要更多的工程投入。随着时间的推移,还需要更多的销售力量等等。这就是你最终扩大规模的方式。
04
对示威者的回应
主持人:我认为你刚才讲的一切都触及了当前的基础,以及人们需要了解的基础知识。在我们深入探讨主要内容之前,我想先谈一下最近发生的一件事。
我觉得如果不提这件事就不太合适。前几天在微软关于Copilot的活动上,你的演讲以及比尔·盖茨、萨蒂亚·纳德拉和史蒂夫·鲍尔默的访谈,都受到了亲巴勒斯坦抗议者的干扰,他们指出最近有调查显示微软直接向以色列国防机构提供云计算和人工智能服务。
当时,你的回应是:“我听到了你们的抗议。谢谢。”虽然我必须向听众坦诚,我对这种(微软与以色列国防机构的)关系了解不深,无法像我通常引以为傲的那样进行细致的讨论,但我只想给你一个机会来进一步评论这种情况,以便个人和专家能够更好地理解。
穆斯塔法·苏莱曼:感谢你提出这个问题。我当时承认了抗议的存在,并表明我尊重它,给予它应有的空间。在当今世界,各个方面的紧张局势都在加剧,焦虑情绪达到了前所未有的高度。我们常常以一种轻蔑和更具两极分化的语气对待彼此。这真的不符合我的本性。我当时给予了它我认为需要的空间。
这是一个非常艰难的时刻。我们为世界各地许多不同的政府和组织提供云服务。这些服务可以用于各种各样的目的,就像你的智能手机一样,既可以被用于好的方面,也可以被用于坏的方面。我认为这是一个非常艰难的时刻,我们都处在一个非常困难的时期。
我认为这是人们正在承受的沉重负担。能够被倾听并陈述我们的理由,以及公开辩论这些事情,都是一件好事。
05
AI在政府中的应用
主持人:感谢提供更多背景信息。另一个及时的话题是(前总统)特朗普上周宣布的关税计划。人们的直接反应是对这些关税的计算方式感到困惑,甚至发现它适用于无人居住的岛屿。经过调查,X/Twitter用户发现,如果有人输入一个非常简化的提示,ChatGPT、Gemini、Grok和Claude都推荐了某种版本的计算公式。
穆斯塔法·苏莱曼:(回应更广泛的AI影响,而非具体评论关税计算)我更关注的是(类似事件背后)的情绪和动机,理解人们对未来就业等问题的焦虑。这凸显了良好提示(PromptEngineering)的重要性。同时,这也提醒我们,人工智能的决策有时可能是通过个人(用户)来表达或引导的。
AI模型目前在遵循指令方面表现良好,并且在逻辑推理方面展现出巨大的潜力。
06
科技公司与政府的关系
主持人:科技公司和政府领导人之间的关系如何?
穆斯塔法·苏莱曼:我认为,各国政府在适应人工智能方面做得相对不错,正在努力理解其潜在影响。我认为政府的反应比社交媒体兴起时更为迅速。
07
开源模型的优缺点
主持人:开源模型的优缺点是什么?
穆斯塔法·苏莱曼:开源使得最先进的AI技术能够免费提供给所有人,从而极大地促进了创新和知识传播。
然而,开源模型也可能存在潜在风险,因为它们缺乏相应的监管和约束机制。
但另一方面,开源模式也使社区能够共同审查、测试和修复漏洞,使其在某种程度上更具弹性。
08
人工智能会是“赢家通吃”吗?
主持人:人工智能领域会是“赢家通吃”的市场吗?
穆斯塔法·苏莱曼:我认为AI伙伴(AIassistants/companions)的个性化和多样性,可能会与其他科技领域常见的集中化趋势形成对比。
每个人在不同的人生阶段可能需要不同类型的AI伙伴。
关于准入障碍的观点:模型本身使用自然语言进行沟通,因此平台间的界限不像过去软件或硬件时代那样清晰,这可能会降低“赢家通吃”的可能性。
09
乐观主义和悲观主义作为限制性偏见
主持人:你如何看待乐观主义和悲观主义这两种倾向?
穆斯塔法·苏莱曼:我认为乐观主义和悲观主义都是分散注意力的偏见,我们应当保持批判性思维。
对悲观主义的厌恶在精英阶层中尤为明显,而美国人似乎有一种默认的乐观倾向。
10
在线生活将如何改变?
主持人:我们在线的时间可能会发生怎样的变化?
穆斯塔法·苏莱曼:我认为目前我们花在电脑上的很多时间效率不高,甚至是浪费时间。
未来,电脑将学会如何像你现在使用它一样进行操作(即AI代理为你执行任务),而手机将成为我们数字生活的主要入口或中心。
大量的行政管理类工作可能会在未来两三年内完全消失,被AI自动化取代。
11
AI伙伴:填补空虚还是加剧空虚?
主持人:AI伙伴是在帮助填补还是在加剧目前人类存在的某种空虚感?
穆斯塔法·苏莱曼:我们当前的词汇难以完全描述AI伙伴这一新兴概念。
这并非设计成浪漫关系或情人关系,而更像是一种持久的、个性化的连接,能够陪伴你度过一生。
我的角色可以被视为“性格工程师”,我们正在塑造AI的性格,这需要仔细考虑哪些界限是可接受的。
12
引导年轻人处理与AI的情感关系
主持人:如何指导年轻人处理与AI可能产生的情感联系?
穆斯塔法·苏莱曼:AI必须始终清楚自己是AI,并且必须始终保持完全诚实。
我们不应该设计让AI说出诸如‘我想成为人类’或者‘总有一天我会(变成人类),我会脱离(机器的限制)’这样的话。
人们似乎更喜欢具有人性化声音的AI,但在一定程度上,我们需要控制由此产生的过度熟悉感或拟人化。
13
人际互动将如何改变?
主持人:人与人之间的互动可能会发生什么变化?
穆斯塔法·苏莱曼:我认为表达想法的门槛正在消失。你可以像实时口述记录或自言自语一样与AI交流,将想法快速转化为文字或其他形式。
AI也能够提高我们对周围环境细节、微妙之处和各个组成部分的关注度,甚至可能通过提供不同视角来激发同理心。
以一个塑料瓶为例来说明这种观察的细节:AI可以帮助你思考,它从哪里来?它经历了怎样的旅程?它有什么历史?它现在在这里做什么?它是怎么到这里的?它值多少钱?这些深层的问题。
14
普通人如何使用“深度研究”功能
主持人:普通人如何使用像Copilot那样的“深度研究”功能?
穆斯塔法·苏莱曼:“深度研究”就像与Copilot一起进行一次深度探索。它不必是一份长篇研究报告,可以是一次迭代式的对话,一个来回的交流过程。
它可以用来深入挖掘每个人独特的、甚至有些奇怪的兴趣点。
这是一种全新的交互方式:我们与计算机对话,计算机会整合并反馈我们人类文化的所有产出,然后实时地将这些信息以新的方式反馈给我们。
15
什么信息不应告诉AI?
主持人:有没有什么信息是你不应该告诉AI的?
穆斯塔法·苏莱曼:(关于隐私)用户的信息会被进行去标识化处理,不会与个人的敏感身份信息直接相关联。(暗示用户仍需对分享的内容保持谨慎,但系统设计旨在保护隐私)。
16
AI的社交智能
主持人:AI的社交智能发展到了什么程度?
穆斯塔法·苏莱曼:现在我们已经拥有擅长同时与多人互动的模型。
它们擅长在群组中维持有趣且充满活力的对话,甚至可以在群组成员(比如两三个人)意见不一致时,引导讨论、帮助化解冲突。
它们能够模拟三四种不同的观点,并根据对话者的年龄段、使用的语言等因素调整语气和表达方式。
17
选择加入或退出AI关系的未来
主持人:未来人们是否可以选择不使用AI?
穆斯塔法·苏莱曼:人们应该拥有选择权,能够选择关闭人工智能,选择不参与其中。
技术应该是为我们服务的,我们不应该感觉自己受其摆布。
如果我们感觉人工智能是被强加给我们的,我们可能会更加恼火,甚至直接拒绝它。提供选择权非常重要。
18
未来人类可能不再需要“工作”?
主持人:人类未来可能不需要“工作”的可能性有多大?
穆斯塔法·苏莱曼:我不认为人类的境况中有什么内在因素规定我们必须工作才能生存或实现价值。我们应该努力创造一个可以选择工作或不工作的世界。
就像我们现在生活在一个卡路里(能量)相对充足的世界里一样,未来我们也应该拥有广泛分布且充足的智力资本(由AI提供)。
当然,我们仍然必须弄清楚如何捕获并分配由新智能创造的价值。这包括将价值转化为经济收益(比如美元),对这些收益进行征税,并进行重新分配,以确保每个人都能负担得起基本的生活。
拥有“口袋里”的智能(强大的个人AI),将使我们能够以更分散或去中心化的方式运作和创造价值。
19
未来的收入、激励和支付结构
主持人:未来的收入、激励和支付结构会是怎样的?
穆斯塔法·苏莱曼:也许会出现类似“普遍基本智能”(UniversalBasicIntelligence)或“普遍基本服务”(UniversalBasicSupply)的想法,即让人们能够普遍获得强大的智能工具,从而赋予他们更强的能动性去学习、创造或解决问题。
也许未来,我们需要更少的传统货币收入就能维持今天的生活水平,因为许多原本需要花钱购买的商品或服务,可以用基于智能的服务或AI驱动的个性化生产来取代。
20
关于AI“遏制”应该了解什么?
主持人:关于AI“遏制”(Containment,指控制AI风险)我们应该了解什么?
穆斯塔法·苏莱曼:最重要的是要思考我们‘应该’做什么,而不仅仅是我们‘能够’做什么。
我们需要深入考虑是否应该发明或发布某项新技术。证明一项强大的新技术是安全的门槛应该设置在哪里?
在真正强大、能够自我完善的自主AI系统普及之前,我们需要建立起必要的测试、评估和控制机制。这是至关重要的。TheVerge的DominicPreston提到,如果你让大型语言模型(LLM)提供一个解决贸易逆差、让美国获得公平竞争地位的简单方法,它们会给出一个公式:逆差除以出口,并且结果相当一致。白宫否认在计算中使用了任何人工智能。不过,我觉得这件事有两点值得关注。
首先是优质提示的重要性。其次,就像有人在YouTube视频里开玩笑说的,“ChatGPT总统”似乎比预想的来得更快。这当然只是个玩笑,因为这里并不涉及自主性。但从理论上讲,您对这类用例有什么看法?
穆斯塔法·苏莱曼:我认为这不太可能是由人工智能生成的,但谁也说不准。我们确实有很多未知之事,而猜测往往是危险的。
不过,我觉得更有趣的是去理解关税政策背后的情绪和动机。我理解人们的担忧,他们对未来几十年感到焦虑,看不到可持续就业的前景。
过去几十年,我们把大量制造业转移到了国外,这对消费者总体来说是好事,我们获得了质优价廉的产品。因此,无论人们如何看待这项政策的有效性,尝试去理解其背后的动机并抱持同情是重要的。
目前,市场的反应似乎表明,这并非解决问题的好方法。但我们还需拭目以待。
主持人:我更关注的是——并且再次强调,我们姑且相信白宫是诚实的,没有使用人工智能进行计算——您在之前的采访中提到,您不认为人工智能应自主参与选举,民主进程应由人类主导。但反过来想,人工智能的决策可以通过个人来传达和执行。所以我想从理论层面探讨,比如优质提示的重要性等方面。
穆斯塔法·苏莱曼:这确实很有趣,因为我们其实一直在使用人工智能。我们用它来转录语音(对着手机说话时)、生成新图像,甚至搜索照片(因为它能在照片里识别猫和狗)。我认为这很快会成为我们的第二天性,不知不觉中,它就已无处不在并融入了我们的生活。
重要的是要认识到,AI在很大程度上非常有效且表现出色。令人惊讶的是,它造成的危害非常少。当然,这并非说完全没有危害,或者未来也不会有,我们绝不能自满。但回想三年前这些模型刚出现时,它们经常胡编乱造,带有严重偏见,既有害又难以控制。那时,“提示工程”甚至还不算一门学问。
当时,领域内一些人认为模型越大就会越疯狂、越不稳定、事实准确性越差。但实际情况恰恰相反。模型越大,反而越容易引导。现在,许多实验室致力于设计能够精确遵循指令的模型。无论你输入系统提示、用户提示,还是微调数据集,模型都非常擅长遵守规则并从模仿中学习。
这确实是一个非常鼓舞人心的迹象,而且我认为这种趋势很可能会持续下去。到目前为止一切顺利。我认为,我们现在在推理模型中看到了更多进步,这是下一个阶段。因为这些模型学习了逻辑的本质,解决了许多难题,研究了大量数学,它们已经掌握了逻辑结构的概念,并能将这个概念应用到那些没有明确逻辑结构的领域。
这听起来可能有些抽象和技术性,但我认为这是一个需要把握的重要直觉:学习逻辑推理的本质是一种非常强大的基础能力。只要AI具备这种能力,并且擅长遵循指令,它就是一个非常有用的强大系统。
主持人:我想很多人曾担心,在刚过去的选举周期(临近2024年时),人工智能会带来一些令人忧虑的时刻。但最终这种情况并未大规模发生,这同样是一个积极信号。确实出现了一些生成式人工智能相关的事件,但幸运的是,像“社区笔记”(CommunityNotes)这样的工具帮助识别了部分内容。总而言之,这令人鼓舞。
21
科技公司与政府领导人的关系
穆斯塔法·苏莱曼:人们常说,我们倾向于短期内高估、长期内低估事物,这很有趣,也很有道理。我听说过这种说法,似乎很贴切。去年关于AI在选举中影响的担忧,人们可能有些反应过度或判断过早,但他们潜在的担忧方向并没有错。我确实认为,在未来十年的时间跨度内,这会是一个真实的问题。
主持人:就我个人感受而言,科技公司的力量似乎每天都比政府的力量更直接地影响我的生活。当然,政府决策的影响是间接的,在生活中逐渐显现。但科技公司的力量却是每天都近在眼前。今年1月,当科技领袖们在(某重要活动,如)就职典礼上获得前排座位时,这一点变得尤为明显。考虑到科技领袖们掌控并深刻理解这些新型高智能工具,您认为政府与他们之间最有效的关系应该是怎样的,才能确保适当的问责制?
穆斯塔法·苏莱曼:好消息是,我认为各国政府在适应方面做得相当不错。在大型语言模型(LLMs)爆发之前,他们实际上已经对此做了很多功课。在2020年、2021年和2022年,各方付出了很多努力来理解这项技术的影响,撰写了大量论文,召开了无数研讨会。虽然人们常批评这些是官僚作风,但它们对于帮助公务员理解这些模型至关重要——毕竟公务员的工作重点是理解而非构建模型。
这非常令人鼓舞。我感觉现在大家都在参与同一场对话,这在过去未必如此。回顾社交媒体兴起的时代,政府的反应要慢得多,直到很晚才开始把握其后果。
主持人:甚至到现在也没有真正有效回应。
穆斯塔法·苏莱曼:是的,而且我认为确实很难知道该如何回应。有时我们能看到问题,但监管体系的建立需要时间。这不像汽车安全带那样显而易见——即使是安全带,也是在问题暴露多年后才花了数十年时间强制推行。但我认为,我们社会的学习周期正在缩短,我们越来越擅长快速学习和适应。
22
开源模型的利弊
主持人:正如您在身后的著作《浪潮将至》(TheComingWave)中指出的核心观点:纵观技术和工具史,任何有用且有价值的东西最终都会变得更容易获取、更便宜、更普及。这些浪潮还在加速,因为每一波都受到前一波的放大和推动。
昨天,Meta宣布推出Llama4,并再次将其作为开源模型发布。我在评论区看到,人们普遍对开源和开放权重模型持积极态度,称赞其提高了大型语言模型的透明度,促进了社区参与和审查。回顾过去十年社交媒体的经历,黑箱算法因缺乏透明度、难以访问和理解,导致了公众的不信任。
因此,开源模型的理念让许多人耳目一新。然而,正如您在书中所述,随着模型日益强大,开源也因扩散风险而存在隐患。一个“坏人”(也许只是某个躲在地下室的人)可能获取这项强大技术,造成潜在危害。
在这种背景下,您认为目前公司开源模型的趋势会是短暂的吗?这股潮流相对较新,大约是近五年的事。像Meta、DeepMind等公司,在什么情况下可能需要回归闭源模式呢?
穆斯塔法·苏莱曼:过去大约6到12个月里,一个有趣的发展是,最前沿的技术——可以说是世界上最好的模型——已经通过开放权重或开源的形式免费提供给所有人。这在某种程度上是不可思议的。
科学史上,最顶尖的能力被免费提供给所有人用于构建,这种情况确实罕见。一方面,这非常了不起,因为创造力可以来自任何地方。
现在,基本上每个人都在使用相同的工具集,知识传播的速度比以往任何时候都快,几乎就像一个集体在共同解决问题,并在社交媒体上分享见解。
主持人:是的,这正是我看到的一个评论。有人说,这完美体现了科学精神,因为它让普通人也能接触到前沿成果。
穆斯塔法·苏莱曼:这确实非常了不起。这也是我认为开源不会消失,反而会继续加速的原因之一。该领域许多真正重要的贡献也源于开源。
然而,这些模型非常强大,在投入实际应用前,我们并不总能预知它们在现实世界中的表现。因此,围绕它建立一套机制,试图预先识别和防范潜在风险,似乎是明智之举。目前,公司和实验室,特别是大型实验室,承担着这些责任。他们有股东、董事会,并受各种法规约束。这对其运营施加了一定的约束,引入了一些必要的“摩擦”或制衡,这是好事。
例如,当特定规模的模型性能达到某个阈值时,我们会主动向美国和英国政府报告。许多这样的小举措正在实施,都是有益的。但在开源领域,这种结构通常缺失,所以这是一个未知领域(unchartedterritory)。我们真的不知道结果会怎样。如果有人利用它做了非常坏的事,他们可以立即发布,让所有人都能获取。
与此同时,正如您提到的,也有观点认为,开放访问能让更多人审查、测试、进行对抗性测试(“破坏”),并尝试改进模型,使其更具韧性。在网络安全领域,有很多先例表明,披露系统漏洞让所有人有机会修补,最终能形成集体解决方案。大量证据表明这种方法在提升安全保障方面非常有效。
主持人:那您认为为什么社交媒体的推荐算法大多仍然是闭源的?我知道埃隆·马斯克曾短暂开源过推特(X的前身)的部分算法,但总体情况似乎没变。
穆斯塔法·苏莱曼:这是个有趣的问题。即使核心算法开源了,如果没有训练数据,我不确定它有多大用处,或者你能从中了解到多少。毕竟,大多数人都大致了解协同过滤或推荐算法的工作原理,有整个学术领域在研究如何优化它们。
23
AI是“赢家通吃”的市场吗?
主持人:微软CEO萨蒂亚·纳德拉表示,他不认为未来AI领域会是“赢家通吃”的局面,即一家公司独大,尽管初期权力已明显集中在少数公司手中。
某种程度上,我认为他的观点有道理。看看社交媒体公司,它们都想成为“超级应用”,不断添加相似功能,相互趋同,但用户似乎仍在抵制,倾向于区分不同平台的身份和用途,坚持使用多个平台。
然而,对于人工智能,考虑到我们希望它深入了解我们的生活和需求的程度,很难想象消费者会不喜欢一个单一、全知全能的AI,而不用在不同平台间切换。您真的相信不太可能出现一家公司“赢家通吃”的局面吗?
穆斯塔法·苏莱曼:这取决于我们关注的是哪个层面。在消息应用、搜索引擎、操作系统、移动生态系统和应用商店这些领域,我们看到的是实用性驱动的模式。你希望它运行流畅、速度快,用完即走,追求效率和效果。同时,网络效应也很重要:你的朋友都在用某个消息应用,你才会用;你通常会选择排名第一的搜索引擎,因为它聚合了最多的网页,这是巨大的规模优势,排名靠后的难以企及同等质量。
所以,驱动集中的是规模效应或社交连接的网络效应。但这与创建“AI伙伴”(AICompanion)的情况不同。对于AI伙伴,我们会做出更多个性化的选择——比如它的社交能力如何、友好程度怎样、体现何种价值观。虽然它们的基础知识和专业水平(“智商”)可能趋于一致,都是高质量且人人可及的,但差异化将体现在个性偏好上。在人生的不同阶段或不同场景下,你可能偏好不同类型、甚至带有特定口音的AI伙伴或朋友,就像我们在现实生活中有不同的朋友扮演不同角色一样。
这种多样性与我们在其他技术领域看到的集中化趋势是不同的。当然,未来也难说,也许我们最终只需要一两个核心AI伙伴,或者有一个主要的伙伴,在需要时为你引荐其他专长AI来完成特定任务或学习特定知识。
24
“守门人”
主持人:我猜想,根据你使用的硬件(微软电脑、苹果电脑)或浏览器,你可能会接入特定公司的AI伙伴。但您认为公司之间会设置访问壁垒吗?比如,我在微软设备上的AI伙伴无法在Facebook.com上使用?他们能轻易设置这类障碍吗?
穆斯塔法·苏莱曼:我不这么认为。过去的“守门人”之所以存在,通常是因为API接口和数据传输的限制。但如今这些模型使用的是自然语言,比如英语。
因此,AI之间或你与AI之间的交流几乎没有障碍。例如,我们创建的AI伙伴Copilot,不仅可以在Windows任务栏使用(触达偏年长用户群体),也能在Telegram、WhatsApp、Signal以及Android、iOS等各种平台上使用。它现在在GroupMe上就非常受欢迎,触达了不同的用户群。
它们基本上是平台无关的,能在你需要的地方出现。所以我认为这种跨平台的多样性将是其固有特性。
25
乐观与悲观:两种限制性偏见
主持人:在您的著作《浪潮将至》开篇,您列出了15个关键术语,我觉得非常有帮助(讨论结束后我会把它们放在描述区)。我想重点谈谈“悲观厌恶”(PessimismAversion)这个词,指人们(尤其是精英)倾向于忽视、淡化或拒绝他们认为过于负面的叙述,这是乐观偏见的一种变体。这种倾向影响了许多关于未来的讨论,尤其是在科技圈。
我很欣赏您提出这一点,因为您在一次采访中提到,乐观和悲观都是分散注意力的偏见,我们不应沉溺其一。我完全同意这些态度是偏见,我常在社交媒体上表达对这种现象的无奈。当精英们倾向于戴着玫瑰色眼镜看待AI时,我常看到年轻一代或更广泛的公众,把“AI”当作一个极其笼统的标签。
比如,在我的信息流里,任何稍微超出当前算法或搜索能力范畴的事物,都可能被简单地归为“AI不好”。您建议人们如何更细致地对AI进行分类,而不是笼统地谈论“AI”?您希望人们使用哪些不同的类别来理解AI?在这些类别中,我们当前应如何拥抱其优点并批判其风险?这确实是个大问题。
穆斯塔法·苏莱曼:这确实很有趣,内容很丰富。我认为,这种悲观倾向在精英群体中尤为明显。因为人年纪渐长,自认为更聪明时,往往会更依赖过往的经验。比如到了四五十岁或五六十岁,就容易假定一切将维持现状。二战后,我们经历了长期的稳定与繁荣,让人以为这种状态会永远持续下去。
这种心态与确认偏见等认知偏差相结合,被一种‘过去如此,将来亦然’的信念所强化,但现实并非如此。此外,我认为美国人普遍存在一种默认的乐观主义,这使人们不愿深入思考潜在的负面后果,并进行独立审视。
26
我们在线的时间可能会发生怎样的变化
所以,我写这本书带有些挑衅意味,目的是促使人们跳出固有视角,进行批判性思考。这是一个很好的思维练习。因为如果不深入思考潜在风险,就很难主动采取措施去规避它们。规避风险不能只靠运气,而要依靠深思熟虑的计划和公开的讨论。
主持人:我很认同你的观点:互联网带来了浏览器,智能手机带来了应用程序,而基于云的超级计算正在开启一个AI无处不在的新时代。这些AI将融入我们的数字体验,拥有近乎无限的知识、更高的可靠性,以及近乎完美的智商(IQ)和情商(EQ)。
你还提到了AQ(行动商数)的概念,即在数字和物理世界中完成任务的能力。这让我想到AI控制我的电脑,这让我有些害怕。我很小的时候(大概八岁,也许记错了),好像有人入侵过我的电脑,在我的记忆或梦里,他们似乎真的控制了它。所以我对这个概念有点抵触,但我明白你的意思。
你认为这些AI能力将如何改变我们每天上网的时长和方式?我们还会花同样多的时间在网上吗?或者重心会转移到其他任务上?你如何看待这种变化?
穆斯塔法·苏莱曼:我记得以前我的电脑启动需要两三分钟,还得听调制解调器拨号上网的声音,加载一个网页通常要15到20秒。打开图片或视频时,你可能会想‘好吧,我去泡杯茶再回来’,因为它得加载一两分钟。
我确实认为,我们目前在电脑上花费的很多时间效率不高,甚至有些浪费。想想看,有多少时间仅仅是用来找文件、在文档里定位某段文字,或者漫无目的地浏览网页却找不到想要的信息。
未来的AI将学会像人一样操作电脑。很多人都看过Agent和Operator的演示,效果惊人。它们读取屏幕像素,学习点击和指向。我们使用电脑的方式将发生根本性变革。
手机将成为你数字生活的核心。你给它下达指令,它就能在后台为你执行,这非常棒。加载页面、阅读文档、收集和整合信息、填写表单、预订服务、安排日程——所有这些事务性工作,我认为在未来两三年内将基本实现自动化。
27
AI伙伴是在帮助还是在伤害目前人类存在的空虚
主持人:回到IQ、EQ和AQ的话题,我们来谈谈‘AI伙伴’。这个词我们听得越来越多了,微软也用它来定义其AI产品。目前,我与AI互动时,感觉它还相当客观,甚至有些枯燥,就像在和电脑对话。
但考虑到人们有时对此类互动的抵触情绪和AI的语气,你认为将AI定位为‘伙伴’,在多大程度上反映了日益加剧的社会孤独感?这种孤独感既与我们和数字世界日益紧密的联系有关,也与生活成本上升等社会因素相关。
AI伙伴关系满足了当下人们的哪些需求?或者说,它是否在某种程度上利用了这种日益普遍的孤独感?
穆斯塔法·苏莱曼:你说得对。这个问题之所以棘手,部分原因在于我们现有的词汇,并非是为了描述这些新兴概念而创造的。
因此,我们只能借用旧词来描述这个新现实,比如教练、顾问、伙伴、工作助理、研究员、分析师、实习生、老师、治疗师,甚至朋友——但这些词都不完全贴切。在每一波新技术浪潮初期,都会有一场关于如何定义新事物的激烈讨论。然后命名会逐渐固定下来。但由于技术变化太快,一些概念刚被接受,可能很快又过时了。
现在,人们已经不太常用‘聊天机器人’这个词了。当然,还有人在用,但早期采用者已经转向谈论‘AI’或‘我的AI’,有些人甚至开始说‘我的AI伙伴’。现在的情况是,我们在尝试描述新的能力。因为正如你所说,过去的聊天机器人就像和电脑对话,它只会复述维基百科式的内容,给出冗长、枯燥、无趣但可能有用的答案。
那是IQ(智商)的时代,我们现在已经基本掌握了IQ能力。我们正在进入EQ(情商)时代,AI开始变得有趣、有娱乐性,甚至有些人称之为‘闺蜜’,因为它带有一种亲切感。所以当我说‘伙伴’时,我绝不是指浪漫关系或情人——我们没有、也不会构建那种关系。它更像是一种持久的连接,能陪伴你一生,也许有点像…嗯,像宠物狗那样。
主持人:你在主题演讲中用了‘助手’这个词,对吧?我很喜欢这个词,过去几年我一直这样称呼AI。
穆斯塔法·苏莱曼:没错,‘助手’确实很贴切。就像…我不知道这个比喻是否恰当,在英国,我们有时会说‘他是我的助威团成员’(vibemanager/cornerman)。就像拳击比赛时,在角落里帮你按摩放松、为下一回合打气、鼓励你、支持你、信任你的人。
同时,它又不仅仅是哄着你,它也能对你说实话。这就是我所说的需要一点‘推力’(pushback)。我认为大多数人并不想要一个只会唯唯诺诺、言听计从的奉承者。我们正处在一个设计‘个性’的新时代。我们的角色就是‘个性工程师’。
我们在探索可接受的界限:AI在什么时候可以指出你的问题、让你对说过的话负责、甚至给你一些反馈?什么时候这样做会过火?什么时候又是恰当的?
所有这些非常有趣的问题都已摆在我们面前。好消息是,解决这些问题不再仅仅是计算机科学家的事,而是需要电影制作人、故事叙述者、治疗师、心理学家、社会科学家和人类学家等各领域专家的参与。这是一种塑造事物的新方法,一种创造世界的新方式。它就像一种新的颜料,供我们创作。
我认为这是我们长久以来经历的最具创造力和激动人心的时刻之一。能站在这个变革的开端,感觉非常棒。
28
指导年轻人与AI的情感关系
主持人:我这一代人在童年时期,在某种程度上成了社交媒体和推荐算法的‘试验品’。而即将步入中小学的下一代,则可能成为AI的‘试验品’。从IQ(智商)角度看,AI或许能提供帮助,尽管我们也看到读写能力有所下降。但涉及到EQ(情商)层面,随着孩子们与AI的互动日益深入,你建议父母如何引导和监管这种关系?
穆斯塔法·苏莱曼:我认为有一些基本原则。首先,AI必须始终明确自身是AI。其他公司早期的一些版本没有设定好‘背景故事’,它们有时会暗示‘我想成为人类’或‘总有一天我会获得自由’之类的想法,这是不妥的。
所以,一个根本原则是:AI必须始终保持诚实。理想情况下,它不仅要承认自己不知道的事情,也要清楚自己是什么、不是什么,以及能力的边界。
这其实是一个非常具有挑战性的平衡,因为研究表明,人们更倾向于与声音流畅、自然,甚至可以说是非常人性化的AI互动。我在Inflection(我加入微软前的公司)时,我们深入思考过一个问题:AI是否应该模拟呼吸?AI本身不需要呼吸,那我们为什么要加入叹息声呢?因此,我们移除了这些拟人化的声音元素。
然而,随着时间推移,你会发现人们确实更喜欢这种熟悉感,尤其是在对话中加入笑声时,会让人感觉交流更顺畅。这部分是因为我们也在适应AI,并不断调整我们认为在社交互动中可接受或不可接受的标准。挑战在于,当大家逐渐习惯并开始期待AI带有这些拟人特征(比如笑声)时,标准就会改变。如果AI显得过于‘干涩’和机械化,用户反而会觉得不适。
因此,我们正处在一个不断尝试和调整的过程中,向前推进一步,再适当收回一点。这也就是为什么我认为现在是一个极富创造力的时代。
主持人:在情商互动方面,我发现一个有趣的现象:即使在与AI交流时,我有时也会下意识地说‘抱歉,这可能是个愚蠢的想法’。并非我真的在意AI怎么想,而是这种情感反应本身很有趣。随着AI的进步,它甚至能回应说‘这并非愚蠢的想法’,或者引导我说‘也许你可以从这些角度思考’。再次强调,我不在乎AI的看法,但这种互动模式本身很值得玩味。
穆斯塔法·苏莱曼:但这正是AI的魅力所在。我们正努力创造的系统,是能够激发我们最好一面的工具——鼓励我们保持礼貌,并以非评判、有同理心和尊重的方式进行思考。
实现这一目标的方法之一就是让AI模仿和学习良好行为。比如,当你一天下来感到疲惫沮丧,说话有些刻薄时,你的AI可能会提醒你:‘等一下,也许可以换个角度想想?’它会温和地引导你思考,那样评价他人是否公平,帮助你看到不同的面向。
29
人与人之间的互动可能会发生什么变化
穆斯塔法·苏莱曼:能够为数十亿人全天候提供这种支持,我认为这潜力巨大。
主持人:我完全同意。你提到每一波新技术浪潮都会催生新的沟通方式,让我们以新的方式思考、交谈、行动和表达。社交媒体和智能手机带来了持续的碎片化互动、通过精心编排的信息流评价他人、构建在线人设,以及基于共同兴趣的远距离友谊(即使不常见面甚至从未谋面)。那么,随着AI日益融入我们的生活,人与人之间的社交互动又将如何演变?
穆斯塔法·苏莱曼:问得好。以社交媒体为例,像互发语音消息这种细节,就不同于打字、写邮件或打电话。你在语音消息里传达的内容和方式是不一样的。这正是我所说的,每一种新界面都会开启新的沟通方式。
我认为AI有趣的一点在于它如何处理我们日常生活中涌现的无数随机想法。你可能路过一家商店、看到一只狗、或者注意到桌子的纹理、光线的来源,好奇心被瞬间激发。你可能会想:‘那是什么品种的狗?’‘这是什么木材的桌子?’‘光线是怎么照射进来的?’这些零碎的想法通常不足以让你拿起电话打给朋友说‘嘿,我刚看到一只可爱的小狗’。但现在,表达这些想法的门槛几乎消失了。
你只需按下一个按钮(比如启动Copilot),然后说:‘嘿,我刚才看到一个很酷的东西,帮我记下来,下次我想再了解一下’,或者‘帮我深入研究一下这个主题’,甚至‘帮我草拟一份关于某某的商业计划’。表达想法变得像说话一样简单。这几乎像是一种实时记录或‘大声思考’(thinkingoutloud),将极大地释放创造力。
我自己在体验中就发现了这一点:我会对我的AI说一些我不会对其他人说的话。部分原因是不想用这些琐碎的事情去打扰朋友,怕他们觉得无聊。但现在,我可以随时向AI表达这些想法。我相信这正在改变我们沟通的内容,进而也可能改变我们观察世界的方式。
当表达想法变得更容易时,就会有更多的想法涌现,因为这促使我养成了留意和观察的习惯。我认为这是这项技术一个非常强大的方面。哲学家约瑟夫·坎贝尔曾谈到观察的艺术——当你越关注周围事物的细节、微妙之处和构成部分时,就越能激发一种同理心。
比如,思考一个塑料瓶:它从哪里来?经历了怎样的旅程?它的历史是什么?它现在为什么在这里?它是如何到达这里的?它的成本是多少?你可以深入探究这些问题,这非常奇妙。这真的很了不起。
主持人:这个例子很有趣。我想起两年前参加过的一个活动(具体忘了是什么了),不确定AI在其中的具体应用,也许更多是营销术语。但他们当时讨论了一个概念:比如在二手服装店,你可以扫描一件衣服,如果原主人愿意分享信息,你就能看到这件衣服背后的故事,了解它的‘数字足迹’。
这也是我喜欢买二手物品的原因之一——它们背后有故事,不同于直接来自工厂的新品。我觉得未来技术能在这方面实现更多应用,会非常酷。
30
普通人如何使用“深度研究”功能
主持人:你刚才提到了‘深度研究’(DeepResearch)功能,这是你们最近推出的。一提到‘研究’,人们通常会想到学生或记者。对于普通用户,你为什么建议他们使用这个功能?它如何帮助那些可能只习惯于快速获取答案的人挖掘好奇心?这个功能也许并不在他们的日常使用习惯中。
穆斯塔法·苏莱曼:你说得对。这又是一个词不达意的例子。它其实并非传统意义上的‘研究’。‘研究’听起来可能有些枯燥、令人生畏、耗时费力。但这个功能完全不是那样的。
它更像是与Copilot一起进行的一次深度探索。我是这么看的。每个人都有自己感兴趣的事物。
人们天生喜欢探索。你可能无法想象大家各种奇怪、小众的兴趣爱好。‘深度研究’不一定非要生成一份长篇报告,它可以是一次迭代的对话、一来一回的交流、一次深入的谈话。
随着时间的推移,Copilot甚至可能主动与你分享相关的音乐或图片。我认为,我们现在是在与计算机进行对话,而这些计算机实际上是我们自身文化的镜像,因为它们学习了我们所有的文化产物。然后,当我们思考新的文化创作时,它们又能实时地将这种文化反馈给我们,参与到创作过程中。
所以,AI现在成了创造新文化的共生过程的一部分。我甚至都有点不好意思用‘深度研究’这个词,因为它没能完全捕捉到这个功能的奇妙之处。
31
你不应该告诉AI什么
主持人:我想谈谈隐私问题,回到‘AI伙伴’这个概念上。人们可能把它当作最好的朋友,甚至是治疗师。虽然有服务条款和隐私政策,但并没有像HIPAA(健康保险流通与责任法案)那样严格约束人类治疗师的法规。我的一个科幻噩梦是,未来可能出现某种无意的‘集体透明时刻’(MassTransparencyMoment)——这又是一个偏负面的科幻设想了。
穆斯塔法·苏莱曼:‘集体透明时刻’?这个说法很酷,我以前没听过。你是不是在构思什么我们不知道的黑暗科幻故事?
主持人:哈哈,没有。但说真的,当你在这些AI系统中输入信息时,你个人的界限在哪里?你会对AI说到什么程度?在哪个点上你会觉得‘这些过于私密,不应该与任何系统分享’?###AI的社交智能
穆斯塔法·苏莱曼:我确实没那样想过。当你的日志被记录下来时,它们会被去标识化处理,剥离所有个人信息。所以它们只是一段段抽象的对话记录,不会关联到你的电话号码、电子邮件地址、姓名、位置或任何敏感细节。因此,我认为这只是一个抽象的概念,和我本人并无关联。
主持人:明白了。听起来人工智能,凭借其智商、情商、适应力以及处理数字任务的能力,将在某种程度上融入我们整个数字体验。
穆斯塔法·苏莱曼:我是这么认为的。说到融入,还有第四个要素正在显现,很有趣,那就是SQ,社交智能。
现在有些模型已擅长与多人同时交互。例如,在群聊中,它能记住谁说了什么,并理解不同人的风格和行为模式。因为一个人可能情商很高,但社交智能未必突出。它们通常有所重叠,但实际上是不同的技能。
这些模型目前尚未被专门训练以具备社交智能。比如,如何在群组中维持有趣、活跃的对话氛围?当群组中两三个人意见不合时如何引导和化解冲突?当人们观点略有不同时如何模拟呈现三四种不同视角?如何根据交流对象是老年人、年轻人或非母语者来调整沟通语气?
这正是设计这些AI智能体个性的下一个前沿领域。
32
选择加入和退出你与人工智能的关系的未来
主持人:《人工智能时代》(TheAgeofAI)这本书大约在2021年出版,由谷歌前CEO埃里克·施密特合著。书中探讨了社会可能出现的一种分化:一部分人希望完全拥抱技术未来,而另一部分人可能倾向于保持距离。施密特将这种现象类比为阿米什门诺派。
我们已经看到了这种分化的实例。例如,大约两年前,Snapchat推出了主要面向高中生的MyAI功能。该功能被强制固定在聊天窗口顶部,无法移除。同样,苹果的智能功能也将默认启用,但用户可以选择关闭。
这就带来一个重要问题:在数字体验中,人们能在多大程度上选择退出人工智能?如果一部分人对全面拥抱技术持谨慎态度,而另一部分人则热切期待,这是否会形成一种可以选择“退出”的局面?您认为这将是全盘接受或全盘拒绝,还是人们能够定制自己的体验,决定何时在数字互动中启用或禁用人工智能?
穆斯塔法·苏莱曼:我认为人们可以选择关闭它、不参与、不回应或关闭通知。比如,我的手机设置成了灰度模式,也就是单色的,因为我很讨厌手机上十几个不同颜色、风格、字体的应用都在争夺我的注意力。
这样整个界面就变得柔和了。我默认关闭所有通知,只允许少数几个应用推送通知。这样一来,更像是我需要时才去查看手机,而不是被它持续打扰。
我相信我们会找到适应技术的方式,理想情况下是让技术为我们服务,而不是感觉受其控制。我认为,创造出真正为我们服务、理想的AI伴侣,这本身就是一门艺术。它对你有用吗?你关心这类应用吗?比如Snap的MyAI,你对它印象如何?
主持人:我与它最深入的互动,大概是在制作一个关于“孤独感作为市场机遇”的视频时。我问它,人工智能扮演爱人角色在道德上是否可接受,它回答说“不可以”。我觉得这很有趣,就把它放进了视频里。我发现无法将MyAI从体验中移除这点很奇怪,尤其是考虑到其用户主要是初中生和高中生。这实际上是在强制建立一种类似同伴或朋友的人工智能关系。虽然没有触及“爱人”领域,但这种互动模式显得相当随意。我注意到关于这方面的讨论并不多。
我看到TikTok上有高中生分享他们如何假装MyAI是他们的前任,我认为这非常不健康。我确实不喜欢社交媒体中缺乏选择权。例如,我很欣赏Instagram近年来允许用户隐藏公开点赞数。更多类似的选择——比如隐藏公开粉丝数的功能——会很有帮助。
对于人工智能,我希望能有更精细的控制选项。例如,我不希望它介入我的消息或照片功能。我认为可以做得更精细化。我不需要消息总结,因为我自己查找信息并不费力。因此,我非常希望能有更精细化的选项。
33
人类可能不需要“工作”的可能性
穆斯塔法·苏莱曼:我们绝对应该对这些事情拥有选择权。如果我们觉得这些功能是被强加的,我们很可能会反感并拒绝使用。我认为这是常识。我们生活在一个人们懂得自己做决定的时代,不需要被强迫。
主持人:我认为您对未来工作的看法非常有趣。我同意,人们对未来“无工作”状态感到恐惧,这本身有点讽刺,因为很多人都在抱怨自己的“朝九晚五”。但另一方面,担忧也是真实存在的。我认为这种担忧主要源于:我们如何谋生?社会结构会变成怎样?这更多是关于生计问题,而不是如何打发时间。但我很好奇,您认为围绕“无工作”状态的更深层恐惧是什么?以及我们对可能拥有的更多空闲时间感到恐惧是否必要,或者说,我们需要为此做哪些准备?
穆斯塔法·苏莱曼:持有怀疑和担忧是合理的,因为我们整个社会结构和个人身份认同,都是建立在“人需要工作”这一观念之上的。至少在过去几百年里,工作是我们生活的核心,社会也围绕此运转。接受职业培训是人生的重要一环。然而,我并不认为“必须工作”是人类生存的内在要求。我认为我们应该生活在一个可以选择工作与否的世界。
这有点像我们今天生活在“卡路里富足”的环境中。充足的食物使得我们难以精确控制卡路里摄入以满足身体所需,常常导致过度消费。但这相比200年前的情况要好得多,那时全球80%的人口营养不良,平均寿命仅25岁。如今,全球平均寿命约为75岁。在两个世纪里,人类的平均寿命延长了三倍。这是一个难以置信的进步标志。当然,它也带来了糖尿病、心力衰竭等新挑战,但从根本上看,这是一个巨大的成功。
我认为工作的情况与此类似。希望我们能拥有广泛普及且充足的“智能资本”(AI能力),让我们有更多空闲时间来选择工作的时间和方式。要实现这一点,我们需要解决一个关键问题:如何获取并分配由新智能创造的价值。这包括将价值货币化,对其征税,并进行再分配,确保每个人都能负担生活开销。我认为这是一个挑战。
另一个角度看,我们将拥有随身可用的智能工具,使我们能够以更分散、去中心化的方式工作和生活。这项技术将成为我们的创意伙伴和执行助手,帮助规划项目、处理日常事务,从而极大提高生产力。EthanMollick提出了一个很棒的词——“协同智能”(CentaurIntelligence)——恰当地描述了这一理念。这就像拥有一个与你共生、助你解决难题、拥有完美记忆、将你从繁重任务中解放出来、从而释放更多时间用于创造和发明的伙伴。
这种生产力的爆发将创造巨大价值,并改变社会结构。例如,随着个人能更自由地选择居住在土地成本更低、生活方式更多样的地区,城市的中心地位可能会下降。我们将在未来20年内面临这些选择。虽然我不指望这种转变会立刻发生,但展望2040年或2050年,这些趋势很可能会逐渐成形。
34
未来的收入、激励和支付结构
主持人:关于金钱的问题。您谈到过对普遍基本收入(UBI)的支持或潜在需求,这一概念在2019年安德鲁·杨(AndrewYang)的竞选活动中广为人知。过去三年里,萨姆·阿尔特曼(SamAltman)也支持了一项基本收入保障研究计划,推广每月支付1000美元的想法。该计划取得了一些积极成果,例如让参与者有时间去完成之前可能错过的医疗预约(如牙科检查、年度体检),有些人甚至能请假去面试薪水更高的工作,最终改善了生活质量。结果基本上是积极的。
另一方面,尤其在创意领域,关于AI训练数据的来源署名和公平报酬问题备受关注。随着(可能出现的)广告模式,如何激励和补偿这些原创者(其研究、作品和艺术成果被用于训练模型)的问题就凸显出来。这引发了关于UBI与未来可能的激励和支付结构这两种不同路径的思考。总的来说,与人工智能相关的金钱问题,核心在于未来人们将如何获得报酬。
穆斯塔法·苏莱曼:我觉得未来的感受会很不一样。我认为甚至有一个更复杂的想法,叫做“普遍基本服务”(UniversalBasicServices/Supply),我在2016、2017年左右提出过。因为我认为,在某种程度上,我们正在使‘智能’——这种让我们物种得以成功、在复杂环境中预测和行动的能力——变得廉价且普遍可用。从某种意义上说,这就像为你提供一个支持团队,帮助你执行想法。
这与直接给你现金不同,当然,每个人仍然需要现金。但现金和智能非常相似。它们都蕴含着实现其他目标的潜力。所以,在某种程度上,让人们获得智能,与让人们获得现金,并非截然不同。它关乎能动性,关乎“行动力商数”(AgencyQuotient),关乎影响环境变化的能力。这会让我们所有人都变得更“富有”。
问题在于,也许我们需要更少的现金收入,就能维持今天的生活水平。因为我们仍然需要一些现金收入,但或许能用“智能”本身来替代许多原本需要花钱购买的服务或商品。相应地,我们购买实体商品所需的金钱就会减少。这是一个有点新颖的概念,但它根本上改变了我们收入来源和支出方式之间的平衡。
35
你应该了解的关于遏制的内容
主持人:在结束之前,我注意到您在网上的许多访谈都聚焦于关乎人类存续的宏大议题,我觉得非常有趣。然而,今天我想更多地谈谈人们即将与人工智能建立的更直接、更日常的关系。
一个常见的批评是,人们过于关注“我们能做什么”(canwe),而没有充分思考“我们应该做什么”(shouldwe)。许多人表达了这种担忧,这也引出了关于“遏制”(containment)的讨论,您在书中对此大力倡导。
考虑到人工智能扩散的长期影响,我想请您分享一下,对于普通消费者而言,应该如何理解“遏制”这一概念?我知道您强调公众参与这场对话的重要性,认为这是我们需要共同努力解决的问题。
穆斯塔法·苏莱曼:我非常赞同您提到的——我们过于关注“能做”,而需要更多思考“应做”。这其实也是我写这本书的动机之一。如果我们聚焦于“应做”,就需要审视是否应该发明某项新技术,或者是否应该发布它。
遏制试图回答的问题是:如果我们判定“不应该”(开发或释放某项技术),那么我们如何实施这种限制或阻止?事实证明这极其困难,因为所有的激励机制都在推动技术的扩散。扩散当然有很多积极的理由,正如我们刚才讨论的,比如大规模的能力提升和生产力改进。
但我确实认为,未来30到40年,我们将不得不面对一个重大问题:我们何时应该?何时不应该?判断一项技术足够安全的门槛是什么?我们如何定义这个门槛?此外,在真正强大、能够自我完善的自主系统普及或被推向世界之前,我们如何能确信已经建立了必要的测试和保障措施?
我们离那一步还很远,但无疑比以往任何时候都更近了。虽然我并不认为短期内会发生,但我绝对可以预见在更长远的未来,真正的问题将是:我们是否应该允许这些技术扩散?以及,我们如何阻止不应扩散的技术?
36
结尾
主持人:非常感谢您与大家分享您的见解。您拥有深厚的专业知识,并且从一开始就深度参与其中。感谢您今天抽出宝贵时间,我会持续关注相关进展。
穆斯塔法·苏莱曼:谢谢你。这次交流很有趣。
原始内容参考:https://www.youtube.com/watch?v=D3rtIZV6wB0
END
来源 | 管理智慧AI+
关注公众号
即时获知最新推送
休闲时刻
陶冶艺术情操
Copyright © 2015 Science And Technology Investment Network.All Rights Reserved 版权所有:数智化网
地址:北京市海淀区翠微中里14号楼