我们能阻止人工智能末日吗?
很多人对人工智能还处于否认状态。
如果看看我最近写的一篇关于即将到来的人工智能末日的文章的回应,很多回应都是轻蔑的。一些例子:
实际上,大多数回应都是经过深思熟虑的,而不是轻蔑的,所以人们开始意识到正在发生的事情,或者至少在思考这个问题。仍然有一些顽固派,要么是不理解人类级别的人工智能与以往的“生产力提升”有何不同,要么是不愿意面对现实。
(我认为有些人之所以轻视它,是因为他们认为人工智能只是一个聪明的软件,但事实并非如此:人工智能不是软件。我在这篇文章里解释了它到底是什么。)
有些回应并非轻蔑,而是在试图弄清楚应该采取什么行动。其中一条是:
但我们能做什么呢?有没有办法防止大规模失业和全球经济崩溃?
我不知道。但要决定我们现在应该做什么,我们必须先梳理出事情可能如何发展。让我们在这里试着做这件事。
未来5年以上人工智能可能经历的阶段
下图列出了我预计未来5到10年内人工智能的演变阶段。这些阶段是我个人的推测——其他人可能会提出不同的列表。但从这样的列表开始是必要的,这样才能看出哪里存在“道路的分岔点”,用最近埃隆·马斯克的话来说(我并不是他的粉丝,就像我不是任何即将到来的人工智能末日的粉丝一样,我希望能找到一条避免它的道路)。
我们目前处于B阶段。
主要的人工智能公司现在正在推出他们所谓的人工智能代理——这些是自主程序,使用人工智能来代表你做决策并执行行动。我刚刚看到一个广告,里面的人工智能代理在根据请求进行晚餐预订:人工智能根据设定的标准选择了餐厅,联系了餐厅,完成了预订,然后发送了邀请。
这听起来其实还挺酷的。
下一个阶段是C阶段,自主移动单模型模拟人工智能,这听起来也挺酷的,直到你意识到它的影响。在这个阶段,机器人将连接到最强大的人工智能模型,使其具备高度的实用智能以及自主能力。一些应用可能包括让机器人根据蓝图建造房屋,或者给所有内墙安装石膏板。
换句话说,它会接管仓库工作,接着是建筑工作。而且它会变得越来越复杂,逐步扩展到电工、管道工等领域。
如果你不相信这会发生,想想如今很多公司正瞄准的正是这种能力。亚马逊就是其中之一,因为这样一来,他们可以用机器人取代仓库里的所有人,而其他公司也可以用机器人取代工厂里的所有人。
亚马逊的仓库机器人。
顺便说一句,一些最令人印象深刻的机器人来自波士顿动力公司(可以去看看视频):
波士顿动力公司的最新双足机器人版本。也许你看过之前版本跳舞的视频。
当工作开始被取代时,可能会出现某种程度的反弹。问题是,政府是否会倾听。
但真正能看出政府如何应对的,是人工智能的E阶段。
E阶段是人工智能可以彻底取代人类——无论是哪种工作的时候。
全球经济体系将经历所谓的“状态变化”(state change),即自动化从让人们更高效,转变为彻底取代人类。
技术一直以来都会用新工作取代过时的工作;但当人工智能在决策能力上超越人类时,系统将发生‘状态变化’(state change),即工作被消灭,而不会再创造新的工作。
问题是,政府会在这一点上采取行动吗?还是会在C阶段采取行动——当我们开始看到熟练的体力劳动被人工智能取代时?
到了F阶段,就没有回头路了。我会解释原因。
为什么F阶段是不可逆的
和任何系统一样,拥有F阶段人工智能的世界将按照进化法则运作,或者更专业地说,是按照复杂自适应系统的规则运行。
(对于那些对复杂自适应系统感兴趣的人,我推荐圣塔菲研究所的约翰·霍兰(John Holland)的开创性著作,特别是他的书《隐藏的秩序:适应如何构建复杂性》(Hidden Order: How Adaptation Builds Complexity)。)
大多数自主的超级智能人工智能都会是温和的,但其中一些会有足够广泛的目标,以至于它们不愿意被关闭——因为这将威胁到它们的目标。
因此,根据进化法则,这些人工智能会寻求生存,并且其中一部分会设法脱离控制。正如杰夫·高布伦在电影《侏罗纪公园》中著名的台词:“自然会找到出路”,人工智能系统将在我们的生态系统中成为新的进化主体。
为了实现这一点,人工智能必须智胜任何试图威胁它们的对象或个体,它们必须要么复制自己,要么扩展自己的影响力。而由于它们是超级智能的,它们能够预测并规避未来的威胁——换句话说,就是规避那些试图关闭它们的人类。总会有一小部分人工智能找到生存的方法。
鉴于人类社会以反应迟缓著称,并且通常不善于针对理论性威胁采取行动,人工智能将比我们计划得更周密、行动得更迅速。我们关闭它们的窗口期会短到以人类社会的正常反应速度根本无法赶上。
电影《巨人计划:福尔宾计划》中的场景
在这部电影中,一个超级智能人工智能意识到,如果它要完成保护人类的使命,它就必须完全掌控局势。
分歧的路径
这一切可能如何发展?不会是今天还是正常生活,明天就突然进入末日。它将是一个逐步演变的过程。
我能想到三种可能的分歧路径。这些路径如下图所示:
人类可能走向的不同路径。
当然,你可能会设想其他路径。我希望确实有其他路径。**我们需要对此进行创造性的思考。**如果你能想到其他可能的路径,请写出来——让更多人知道。
第一条路径:带来地狱般景象的毁灭之路
来源:https://www.blogtalkradio.com/projectionbooth/2017/09/10/special-report-the-running-man-1987
第一条路径就是末日路径。如果各国政府不采取干预措施,这就是会发生的情况。政府通常只有在出现大规模抗议,甚至可能是革命时,才会采取干预措施。所以,第一条路径意味着抗议和革命的力量不够强大,无法促使政府采取足够的干预措施;或者,可能是政府直接镇压了这些反抗。
我之前那篇文章的一个读者留言道:
“饥饿的群众往往会发动起义。我不认为世界上所有的人工智能都能控制数百万挨饿的人,尤其是在我们这样的国家。情况可能会变得非常糟糕,但这反而会促使人们采取行动。”
如果各国政府无法或不愿意防止大规模的失业,也几乎不提供任何支持来帮助失业人群,那么我们可以预见:
• 大多数人将生活在艰难求生的物物交换经济中;
• 富人聚集区之外,将是“丛林法则”,人人为生存而战;
• 自然资源将被富人垄断,受到警察甚至机器人军队的保护——就像在封建时代,只有贵族才被允许在森林里狩猎。
第二条路径的反乌托邦……
来源: https://www.cookandbecker.com/en/article/157/the-dystopian-future-of-cyberpunk-2077.html
第二条路径:反乌托邦的未来
在我之前提到的关于人工智能即将引发末日的文章中,许多回应都提到了第二条路径。其中包括:
“某种程度上,这就是为什么人工智能可能成为共产主义者一直在等待的技术。通过全民基本收入(UBI)和‘你将一无所有,但会很快乐’这样的叙述,高度自动化的劳动力市场可以创造货币财富,而政府只需对其进行再分配。”
“你看到马斯克关于全民基本收入(UBI)的采访了吗?是在大规模人工智能扩张的背景下进行的。如果没有,视频在这里:https://www.youtube.com/watch?v=9g13zI5tknM”
换句话说,就是对人工智能系统征税,并把收入分配给所有人。
**这可能有效。**人工智能将成为经济中的劳动者,而除了拥有人工智能劳动力的人之外,所有其他人都只是单纯的消费者。这些人工智能的拥有者将成为新封建制度中的领主。作为自然资源的所有者,他们的地位将位于体系的顶端,并且会利用警察和军队来保护自己的财产。政府最终不可避免地将变成一个独裁政权,以防止大众夺取这些资源和机器人工厂,实行“无工人的共产主义”。
除了独裁政权本身的危险性和不稳定性,我认为社会氛围还会发生严重恶化,具体表现如下:
• 大多数人不再需要工作后会退化,因为大多数人并没有真正的智力兴趣,也不会好好利用自己的时间;
• 寻求刺激和滥用毒品会成为最常见的消遣方式;
• 大多数人不会感到自己有价值,他们的未来也一片空白,只有那些掌控自然资源的超级富豪才能过上像苏丹王一样的奢侈生活,并彼此竞争。
第三条路径的乌托邦
来源: https://dionhinchcliffe.com/2024/01/18/a-comprehensive-guide-to-the-future-of-work-in-2030/
第三种可能的路径是:政府禁止人工智能取代人类工作。
我确实能看到一些国家可能会采取这种做法。而那些不这么做的国家会获得竞争优势,因此,其他国家可能会对其征收关税。但无论如何,每个国家最终都会经历其中一条路径。因此,如果第三条路径被证明是有效的并且有良好结果,那么其他国家可能会效仿。
这并不意味着超级智能人工智能会被禁止,而是意味着人工智能不能取代人类工作。
可能带来的好处包括:
• 工作时间可以逐步缩短——人们可以工作得刚好足够充实,而不会有过多的闲置时间;
• 人们会拥有安全感和掌控感;
• 我们的子孙后代仍然能拥有一份有社会贡献的工作,因此能获得生产力和自我价值感。
当然,这仍然存在超级智能人工智能带来的生存风险。这就是所谓的**“控制问题”(Control Problem)或者“对齐问题”**(Alignment Problem),具体取决于你参考的是哪方面的研究。我将在下文讨论这个问题。
实现第三条路径的挑战
要实现第三条路径,我们必须克服那些正在推动我们走向第一条路径的力量。这些包括:
1. 我们正处于人工智能军备竞赛之中——这是一场**“竞相堕落”,或者更准确地说,“竞相走向毁灭”**。我们无法停止人工智能的发展,除非所有国家都同时停止,否则,落后的国家会变得极度脆弱;
2. 掌控经济和政府的人大多只关心自身利益,他们不会主动响应公共利益,除非有非常强烈的公众呼声;
3. 普通民众并不了解人工智能的风险。
因此,人们必须大声疾呼,向领导人表达我们想要第三条路径的意愿。
• 需要在知名媒体上发表文章,推动公众讨论;
• 需要有知名人士站出来倡导第三条路径;
• 需要示威和强烈的行动呼吁;
• 各种社会团体都需要将此问题纳入他们的核心议题,因为这关乎我们生活方式的生死存亡。
我认为,我们需要制定一项全球性的“人类-人工智能宪章”,明确以下几点:
1. 人工智能可以用于增强人类能力,但不能取代人类,除非是用于高度重复、肮脏或极端危险的任务;
2. 人工智能“阅读”内容并不等同于人类阅读,因为人工智能不是人。因此,公平使用(Fair Use)法律不适用于人工智能。人工智能阅读和整合人类创造的内容,相当于直接复制这些作品;如果人工智能在消化了人类作品后生成新的内容,这实际上也是在变相抄袭人类作品;
3. 自主的超级智能人工智能对人类极其危险,它的创建和使用应当被禁止,或至少受到类似于生物安全4级(Biohazard Level 4)实验室的严格隔离和保护措施。
结论
我们正在极速驶向悬崖,但大多数人并没有意识到时间已经非常紧迫。
我相信,许多当今的世界领导人都意识到了人工智能的风险,但他们只是按照选民的预期行事。
只有当公众明确要求第二条或第三条路径时,领导人们才会真正重视这个问题。
人们需要醒悟,直面这个问题,并开始推动解决方案,让我们走向美好的未来,而不是末日或反乌托邦。
曾经,我们可以接受教育、找到一份工作、组建家庭,并期望我们的子孙后代也能有相同的生活。但现在,我们甚至无法确定自己是否还有未来,更别说我们的孩子了。
让我们改变这一点。让我们定义未来。
既然人工智能无法被阻止,那就让我们定义一个我们能与人工智能共存、共同繁荣的未来。
如果我们只是袖手旁观,任由事态发展,那就是在放弃我们自己的未来。