假设与思想实验:我们能否编写具有感知基础的人工智能形式来保护人类?
抽象的
人工智能单元 (AI) 的速度、能力和强度可能会对人类控制自身文明造成自身危险。在本分析中,我们研究了人类进化过程中出现的三个基于生物学的感知组成部分:文化能力、道德能力和宗教能力。问题是,这些能力中的一些是否可以数字化并安装在 AI 中,从而保护人类免受其支配。关于道德能力出现的理论表明,道德能力最有可能被数字化,从而安装在 AI 中。如果是这样,那么这种能力的转移,在创造人类和 AI 之间的共同点时,可能有助于保护人类免遭毁灭。我们假设,宗教思想和文化上精心设计的神学创造力,虽然不容易转移,但可以通过在人类和 AI 之间构建坚不可摧的障碍,沿着真实/反事实的路线提供更多的保护。在当前关于超级智能 AI 的“超级对齐”的讨论中,我们研究了在感知的基础上数字化和安装这三种能力的困难。人类价值观对这三种能力的表达不同,对超级智能 AI 的监督有不同的问题和能力。
关键词
1 引言:回顾过去,展望未来
我们从智人的进化中吸取了教训,并从史前史和神经科学研究中推测,开发出可以帮助未来程序员和开发人员将我们称之为“人性”或“感知”的某些方面融入人工智能 (AI) 的方法。早期的措施可能会避免我们太多人认为人类未来即将面临的危险。我们必须在危险来临之前直面它。神经科学、认知科学、考古学、古生物学和文化人类学等领域对人类的了解可以帮助我们思考未来以及如何让未来变得更好。
人类现在正站在人类文明新时代的风口浪尖——这个时代不仅融合了人工智能,还融合了外星定居和探索,这可能会导致与来自其他星系的人工智能发生冲突。在这里,我们采用一个常用词“物种”,并灵活地用它来指代有机体和人工智能形式。我们理所当然地认为现代人类将拥有与人类相似的人工智能能力。一个人工智能“物种”自然会按照我们自己的形象被创造出来。
我们利用这个假设来提出并回答一系列有关“感知”三个组成部分的问题,这是一个令人遗憾的定义不明确的概念,它代表了人类(可能还有其他物种)可以安装在人工智能中的一种品质。如果是这样的话,我们已经开始忙于定义在我们创建的人工智能中应该寻找什么。
然而,还有其他关键问题:人类的这三种能力是否很难数字化并编入我们的人工智能中,以至于它们的差异成为一种障碍,这是我们想要的还是不想要的?是否有任何方法可以利用感知的特征来保护人类物种免受人工智能的所有不必要的控制?这一系列问题构成了这篇短文的基础。
1.1 与超一致目标的对话
本次讨论利用了正在进行的研究成果,即“弱”人类监督“强”超级智能人工智能的困难,以及如何“超级调整”这种智能程度更高的人工智能,使其思维和行为与人类价值观保持一致。1,2]。有人提出,人类进化出的这三种能力可以作为当今最紧迫问题之一的交叉检验的基础。正如 Burns 等人所说。 [1]写道:“对齐超人模型对于确保其安全至关重要;人们越来越认识到,无法对齐如此强大的模型可能会带来灾难性的后果,这使其成为世界上最重要的未解决技术问题之一”。在以充满希望的语气结束的分析中,Burns 等人 [1]写道,“我们认为现在比以往任何时候都更容易通过快速迭代的经验方法来解决这个问题”。
我们同意这一观点,为了充分利用我们对现代人类的文化、道德和宗教能力的了解,帮助解决超级联盟问题,我们不仅需要追溯到智人的进化,还需要追溯到 5500 万至 6500 万年前灵长类动物社会性的起源。3]。
1.2 感知的三个组成部分,但并非感知的唯一定义
我们从进化的角度确定了程序员(人类)能力的三个主要组成部分,这些能力主要涵盖了感知能力:文化能力、道德能力和宗教能力。所有已知的现代人类群体都依赖这三种能力,即使有些人并不具备所有的能力或选择使用所有的能力。我们认为这三种能力都是完全自愿的,就像数学或阅读一样,尽管社会约束各不相同,可能要求一个社会群体的所有成员都表现出这三种能力。这表明这三种能力都可以“伪造”,但我们发现只有道德能力和宗教能力可以伪造得足以说服人类。文化能力是不能伪造的,至少根据我们的定义是这样。它是三者中最古老的,可以追溯到晚中新世,因此与大脑情绪中心、神经网络和反射等生物学特征有关。
最近关于人类价值观与人工智能价值观及其导致的行动高度一致的必要性的讨论,将感知能力广泛地视为与图灵测试相关的特征的组合。2]。这些特征包括“能够使用书面自然语言,使已经拥有理性人类思维的对话者相信,对方也拥有构成理性人类思维的所有能力,即理性、意识、意向性、关怀、感性、自我意识和自由意志” [2] 。这些特征都是智人的特征,但它们并不是类人猿和猴子的全部特征。我们认为它们对于激进的清道夫和社会狩猎生活方式特别有用,这使得早期群体在直立人时期增长到 100-125 个个体[4]。
2022 年,我们有机会向海斯罗普学院的校友小组介绍我们关于人类这三种能力进化顺序的假设。我们问道:“文化、道德和宗教能力:它们有多重要,它们以什么顺序进化?”从小组的问题中我们可以确定,并不是所有的听众都熟悉这样一个观点:这些能力是在我们物种的有机进化过程中进化而来的,而且即使是现在,它们也可以在经验和分析上分开。
在这里,我们提出了额外的、独立的问题:人工智能形态是否应该被设计成具有道德决策和宗教思考的能力?或者,它们能自己学习这些能力吗(这是一个独立的理论问题)?人工智能能学习一种文化吗?我们将在以下分析中简要回答这些问题,这些分析基于人类认知进化的理论和知识[5]。相关的哲学问题包括我们按照自己的形象制造人工智能是否“自然”?如果我们是人工智能所基于的模型,那么人工智能在各方面是否真的是“人造”的?我们将陈述这些沉重的问题,并将它们主要留给哲学家,他们还有很多工作要做。
人工智能将比其人类创造者更强大、更快,并具有更大的认知存储容量。分析师似乎预设了一场必要的“战斗”——一场殊死竞争,直至一个“物种”或另一个“物种”灭绝。人类之所以没有被其他智慧物种拜访,是因为他们创造了自己的人工智能,而这些人工智能导致了人类的灭绝,这种可能性仍然存在。因此,地球上的景象是一场导致其中一个物种灭绝的战斗。我们将讨论这种情况的可能性,并介绍另一种可能性:合作和共同努力,以及人工智能开发人员需要安装与人类神经系统相当的东西,以增强和强化人类的社会性,尤其是在社会群体中解决问题的能力。人类在群体解决问题方面非常熟练,这种技能在幼儿时期就出现了[6]。
2 第一能力:文化能力是什么?它能否被数字化、程序化,并对其结果进行评估?
文化能力鼓励人们强烈地认同特定的语言、生活方式和世界观——事实上,这种认同感如此强烈,以至于正如我们在下文中指出的那样,它看起来是“非理性的”或“不科学的”。文化是一种不同寻常的进化发展,始于大约一千万年前,它反映了新兴的猿类和类人猿谱系对社会互动的日益依赖,尤其是最终在现代人类中。这包括解决问题时的群体互动,以及依赖社会群体为群体或团体做出最终决定。我们是这种依赖的受益者,即使在今天,人类最终还是心甘情愿地服从他们社会群体的决定,无论他们多么想接受他们“完全摆脱”群体影响的想法。文化能力使这种对社会群体的服从合理化,从而成为可能。这种机制在当今的大猩猩家庭、黑猩猩群体中发挥作用,在人类社会群体中更是如此。
2.1 文化能力可以测量吗?
如今,其他动物,尤其是现存的类人猿和少数猴子,与人类在文化能力方面存在着一定程度的共性。这种共同特征并非法国或印度尼西亚等特定文化本身,而是作为一种生物特征的文化能力。如果类人猿和人类一样,是从中新世的猿类遗传种群进化而来,那么这种共同特征就说得通了。自那时以来,许多不同的文化模式组合“填补”或“说明”了基本的生物能力,这种能力在各个群体之间保持着相同的生物特征,但因物种不同,其“数量”或“强度”有所不同。
我们假设人类具有单一起源,但在黑猩猩(黑猩猩、倭黑猩猩)和人属(人类及其直系祖先,以及其他类人猿,如尼安德特人、丹尼索瓦人和其他两种在人类基因组中发现基因但在考古学上尚未确定的物种)这两个属中,文化能力出现了巨大差异。
我们在海豚和猩猩身上看到了文化的闪光。我们在黑猩猩和大猩猩身上看到了更多的文化。我们在自己身上看到了同样的基本能力,但比我们自己更强大。我们在早期人类的考古遗迹的制造中看到了文化的作用,我们也知道早期智人比尼安德特人拥有“更多的文化”,无论我们对尼安德特人的表亲有多慷慨。
文化能力的巨大差异表明,文化能力存在差异,从少量到大量。我们人类的有机后代可能拥有更多的文化能力,而我们人类是人属中唯一存活到现代的成员。
我们感知到的是相同的东西,但数量或程度不同。这在考虑如何将文化能力数字化并安装到人工智能中时很有用。它可以沿着可感知和可测量的连续体变化。很好。它有“更多”和“更少”,但我们能测量它吗?
文化差异很大,但文化能力本身却显得极为统一。这预示着它在人工智能中易于测量和数字化。文化能力并不是“移动目标”——无论个体文化差异有多大。这些观察结果为如何处理、测量和评估人工智能中的文化能力提供了非常有用的提示。
2.2 人工智能安装后,如何评估文化能力?
评估文化的安装可能很困难,也可能比想象的要容易。我们认为,在很大程度上,人类工程师和开发人员将能够感知到他们是否成功地为人工智能编程并安装了文化。我们的人工智能将更容易出错、更容易犯错、不那么完全科学,在社交和情感上更“平易近人”。他们甚至可能有“幽默感”或双关语天赋,并且非常擅长形成它们。
我们的建议是,在人工智能群体中计划并引入安装文化能力的尝试,因为这种能力的出现在很大程度上依赖于生物和社会进化中以群体为基础的发展。今天仍然如此。婴儿人类完全依赖于其文化群体,包括语言、学习、文化认同以及营养,尤其是在早期。最终,对群体的依赖包括愿意服从其决定。这将是对文化能力是否已安装的极好测试。新的“文化人工智能”是否遵循其自身群体的决定,是否说相同的语言,是否采用相同的说话、着装、动作和思维方式?人工智能是否有任何时尚?
2.3 远离纯科学,但相信它
在编程“直觉思维”方面取得了进展,这种思维发现人类的反应通常与更“理性”和“科学”思考的人工智能的反应不同。人类直觉被认为可以提高人工智能的性能,如论文“注意力不是唯一的选择:基于路径的可解释推荐的反事实推理”中所述。当我们在下文讨论反事实思维时讨论另一种非科学思维,我们将讨论“宗教能力”作为感知的基础。它可能不像文化为人工智能和人类提供共性,而是为安全提供一道坚不可摧的屏障。
我们再次注意到,脱离纯粹的科学、理性的决策,通过使用人类的“直觉”或在训练中模仿它来提供更大的“可解释性”,其效用是。3]。我们的假设是,文化能力是感知能力的三种基础能力中最古老的一种,而且相对难以数字化和在人工智能中编程。不过,我们在此提出,它是一种可衡量的能力,既是个体能力,也是群体能力。
2.4 人工智能对文化能力研究的“群体效应”
关于非科学人类认知的问题的答案最终会出现,但除非提出问题。在这方面,“群体效应”本身值得人工智能工程师研究,以在人工智能响应中创造更大的“可解释性” 。7]。如果文化仅仅是“直觉思维”,我们在工程研究中发现了这一点,那么编程和安装会更容易。然而,模仿人类的“直觉”不足以创造文化。如果目标是安装文化能力,那么在训练人工智能时使用直觉是不够的。文化能力取决于个体对群体的依赖,以及人工智能对群体的认同。评估在直觉的基本训练中是否会出现“命名群体”肯定是值得的。有没有一个通常站在窗边的人工智能“蓝色群体”?有没有一个通常站在门口的人工智能“黄色群体”?——或者同等的。人工智能工程师可能会对自己生成的群体认同标志感到惊讶。
我们初步假设,文化能力的安装将更容易在人工智能群体中进行。当多个人工智能都具备这种能力并允许它们互动时,安装将更容易,尤其是在解决问题时(狩猎和采集中“群体思维”的原始进化效用)。
2.5 生理和反射是文化能力的潜在可测量因素
人类的“直觉”反映了文化,通常伴随着生理反应,包括反射和情绪,这些生理反应本身成为决策的重要方面。这就是所谓的“人类直觉决策”的本质。事实上,人类的直觉参与其中!对决策的不确定性通常反映在人类直觉中的不适感中。这并不奇怪,因为肠道是来自大脑的迷走神经的终点。
因此,如果可能的话,将人体组织库中的感官组织连接起来,并教会人工智能“它们所感知到的是什么”,可能会对文化能力的安装研究大有裨益。这一提议在当今科学领域似乎完全有可能实现,因为神经植入物可以帮助那些感官能力不足的人类。
从某种意义上说,人工智能本身就已经拥有潜在的电子感官植入物,而人体组织则是新的。潜在的研究设计将取决于对“直觉决策”的识别,这些决策显然或通常包括反射反应或直觉(或其他生理)感觉的变化。这类研究可能会让学习过程更充分地揭示文化能力的本质。我们认为,直觉的生理和反射伴随物的性质绝非微不足道,而是理解智人直觉如何发挥作用的核心。在学习如何数字化和在人工智能中安装文化能力的过程中,我们将不可避免地学到很多关于我们自己、我们的进化、我们的认知和我们的身体的知识。
文化的生物学基础支撑着一种相互联系的象征性忠诚结构,这种忠诚结构利用了一些非常原始的神经网络、大脑的情感中心、大脑网络,甚至反射,以及一些位于小脑中并存储主要供前额叶皮层和顶叶使用的基本模型的高级能力。例如,文化是厌恶的基础。一种文化中让人厌恶的东西与另一种文化中让人厌恶的东西不同,但两者的反应都是呕吐。
我们能让人造物种感受到厌恶吗?电影《银翼杀手》在很大程度上给出了否定的答案。8]。然而,目前我们仍不确定它能否被数字化。毋庸置疑,这条发展路线将需要对文化在人类神经学、情感和反射中的反映进行更多的研究。
文化能力是“旧”神经学和“新”神经学的结合。然而,作为一种能力,它是不寻常的,甚至是奇怪的,因为它从根本上来说是不合理的。例如,为什么人们应该支持蓝色人工智能组而不是黄色人工智能组?我们知道的是:文化支持社会群体,无论这个人类群体是什么。它非常成功地承担了这项支持任务。它在群体绝望时给群体带来了希望,它使人类能够心甘情愿地履行甚至繁重的角色,它巩固了忠诚,这种忠诚可能决定个人的生死,但更重要的是,也可能决定社会群体的生死。
为人工智能植入文化可能需要规划一系列更为复杂的变化,这将使人类与人工智能之间的界限变得更加模糊。一旦人工智能具备了文化能力,它在很大程度上就几乎是人类了。然后,植入文化的伦理问题就出现了,随之而来的是,越来越人性化的人工智能的公民权利也受到质疑。
在继续之前,我们不得不面对一组令人担忧的事实:迄今为止,人类属的所有物种都已灭绝。我们要问:这是智人(属、种、亚种)的命运吗?
2.6 灭绝是不寻常的吗?
对我们问题的回答以及关于人工智能的新假设可能会帮助我们避免灭绝。人工智能导致人类灭绝的情景似乎更加真实,因为我们知道,除了我们之外,所有人类物种都已灭绝。让我们考虑一下已知物种的数量——能人、直立人、海德堡人(早期智人)、尼安德特人、丹尼索瓦人(现在被视为一个物种或亚种)、弗洛勒斯人、吕宋人[9]、伊达尔图智人(埃塞俄比亚赫托发现),以及通过测序和深度数据挖掘发现的两种早期人类。除了智人之外,所有这些人种都已灭绝。
我们是赢家,但我们可能有一个问题。我们是否通过开发一种可能毁灭我们的人工人类物种而播下了自我毁灭的种子?阻止人工智能出现的过程已经太迟了。它现在正在发生。基于数字的人工智能已经在交换代码——这是性细胞生产(减数分裂)的机器等价物,也是“有性生殖”的数字近似。
智人的有机进化也在发生。越来越多的证据表明,现代人类仍在继续进化[10,11],因此有可能一种新的人类有机物种已经出现。这一过程可能会受到流行病、战争、自然灾害或太空探索中遇到的截然不同的外星环境的选择压力的影响。如果我们的物种产生了一个新的物种,我们可能会“灭绝”,但我们会有一个直系后代物种。这会和我们自己物种的生存一样好吗?会更好吗?留下我们属的一个无机成员(人工智能)会和留下一个有机形式“一样好”吗?
3秒能力:什么是道德决策?它可以在人工智能中数字化和程序化吗?
让我们继续讨论人类感知的三个进化基础,它们(1)可能代表人类与人工智能之间的差异,将两者区分开来,或许为有机形式的生存创造一个“优势”;或者(2)可能使程序员能够在人工智能中创建人类能力的数字版本,或许创造一种将人类和人工智能结合在一起形成一种有利可图的伙伴关系的共性。
道德能力是一种独立于文化能力的能力,而且是最近才发展起来的。我们在《人类进化中宗教的出现》中提出书中提出[5]道德思维出现于一两百万年前人属的另一个成员直立人身上。直立人是出色的社会性猎人,也是智人出现前最后一个主要的成功物种。直立人在非洲生存了很长时间,然后迁出非洲,遍布欧亚大陆。直立人从颈部以下来看与智人几乎一模一样,步幅也更大,但脑部不如我们的大,也不那么复杂。尽管如此,我们认为,地面生活、狩猎、享受公共篝火和无数其他社会特征赋予了直立人一种道德思维和道德决策形式,可以裁定“好”与“坏”之间的区别。
3.1 文化、道德和宗教能力的差异
文化并不总是遵循科学规则或经济学所捕捉到的合理性,而且从技术上讲,它也不是完全科学的。它以普遍、印象派、象征性、有时甚至是直觉的方式影响着人类的经验,并且它像宗教一样,利用非常古老的情感大脑中心。正如我们上面所讨论的,人类文化似乎不容易数字化,但道德能力似乎很容易从道德决策示例数据库中数字化。当然,人们可以更改数据库。
3.2 道德决策:优势与劣势
道德能力的神经机制研究比宗教能力(研究最少)多。有些案例研究表明,人类没有道德能力,但仍在社会中发挥作用。。12],所以它不同于“社会性”。关于道德决策的神经科学研究尤其扎实。我们的初步结论是,将有可能以人工智能形式编写基于价值观的决策。尽管如此,我们是否安全地做到这一点仍然是一个问题,因为用支持不同道德价值观的示例数据库来替代是如此容易。我们的观点是,为一些人工智能编写道德决策代码可能很有用,即使只是为了制衡所有其他人工智能,特别是如果后者被武器化。通过这种方法,一些人工智能将具备道德能力,但不是全部。在许多方面,这正是当今使用无意识人工智能进行军事决策的方式。只有人类才拥有道德决策能力。
3.3 基于价值观的决策的神经科学
神经科学家保罗·格里姆彻撰写了《人类决策机制的新兴标准模型》 [十三]并描述了价值观在神经学上是如何表现的,以及如何在基于价值观的决策中加以运用。他开始说道:
“现在我们知道,一组额叶皮质和基底神经节储存并代表我们对各种事物赋予的特殊价值观。这个价值体系是一个由许多区域组成的复合体,它综合了我们在任何特定时刻面临的所有选择的价值的单一共同表征。这些所谓的主观价值观随后被发送到一组实际执行选择过程的额叶和顶叶区域” [十三]。
这里,我们提供了 Glimcher 概述的基于价值观的决策标准模型的神经学细节。需要注意的是,我们没有这样的文化能力神经学模型,而且我们无法获得以下细节来理解文化能力如何发挥其主要作用,即在社会群体成员之间建立共同联系,并为社会群体提供支持。
即使是以下的简短描述也相当技术性和详细。对于基于价值观的道德决策,我们有一个很好的理论模型来描述人类如何做出选择,而且很容易想象如何将选择过程数字化并用于编程。
格里姆彻[十三]指的是“选择回路”,紧接着是“估值回路”。该模型包括神经回路,这些神经回路“一旦考虑的选项的价值的内部表征已通过神经系统表达出来”,就会做出选择。Glimcher [十三]假设价值观存在于单一共同的尺度上。
为了便于说明,大脑皮层中的信息被编码在二维“地形图”中,这些图反映了神经元放电的速率。这些是两个不同高度的锥体的图像,代表两种选择。价值最高的选择出现在地图的最高峰上。在他的眼动决策示例中[十三],当两个选项的值在选择过程中接近时,神经元“噪音”会导致他所说的“赢家通吃过程”。决策表现为选择向最高峰的坍塌。鼓励读者检查这组图表以及过程的描述[十三]。价值最高的选择在地图上显示为最高峰,它代表“选择”。这些插图的双重性质再次表明了数字化的道路。
3.4 人类决策的演变
决策过程的质量控制源自小脑和前额叶皮层网络,该网络对质量做出评估,然后才与大脑皮层沟通以实施决策。Deverett 及其同事[14]表明小脑和前脑之间的回路有助于提高感知决策任务的准确性。从进化的角度来看,人类大脑的执行功能(包括其管理复杂决策任务的能力)在人类进化之前就已经在类人猿中出现了。
Smaers 等人对类人猿和人类前额叶皮质的“异常进化扩张”进行了研究。[15],他们的结论是前额叶扩张的转变确实不同寻常。特别有趣的是转变的时间,1500 万到 1900 万年前,比许多人认为的要早——也许比我们提出的文化能力要早。或者,这两种能力可能是同时进化的,也许是相互作用的。这两者今天肯定经常相互作用。如果考虑文化的作用,那么似乎需要一个决策者来根据特定文化得出什么是“好”,什么是“坏”。
3.5 只有一个神经决策过程
格里姆彻[十三]证实了不同决策模型之间的日益融合。“基于价值(较慢)和感知(较快)的决策传统都认为额叶和顶叶选择区域是多种决策的关键阶段……这表明了高度的统一性。它表明所谓的选择回路可以在广泛的输入范围内运作,从而在许多情况下产生连贯的行为”。
我们从格利姆彻及其同事那里了解到,不同类型的决策都使用单一的基本计算过程。这预示着我们有能力将这一过程数字化,并编程将其用于人工智能。
3.6 道德决策可以在人工智能中数字化和程序化吗?
我们回到道德能力本身的安全性和持久力问题,即如果将道德能力本身与宗教能力分开考察,道德能力的安全性和持久力会如何。在现代生活中,两者可以分开出现,但并不容易,也不常见。我们要问:道德能力的未来与宗教能力的未来一样吗?我们的观点是,它们未来的用途可能有所不同。
人类大脑中基于价值观的决策(一些分析师认为是道德能力加上行动意愿)将得到充分理解,以至于未来基因工程师可以对其进行操纵。人工智能将可以使用其数字版本。这种广泛的熟悉度也将使其更加安全,并且更改和伪造的检测将变得更加明显。训练人工智能形态的道德原则将相对容易。因此,防止其滥用的保障措施也将很容易。这将使人工智能与人类价值观的持续高度一致变得相对容易。
我们得出的结论是,改变道德能力并不像改变文化能力或宗教能力那么复杂,道德能力可以在不涉及情感中心的情况下在人工智能中进行训练。这类似于某些类型的感觉处理敏感性,这种敏感性并不是所有人类都会出现,但在某些情况下会绕过情绪。16]。如果我们在人工智能中安装无情感的道德决策机制,就会出现实际问题和道德问题。让人工智能做出绕过情感中心的决策可能对人类不利。这必须经过彻底讨论、评估,并通过审查委员会做出决定。无情感人工智能决策的主要优势是战争速度快,如果我们面对的是按照其他物种的形象而不是我们的形象构建的外星人工智能,我们可能需要人工智能的才能。审查委员会有自己的工作要做。
4 安装感知组件是否类似于安装人类增强装置?
人类这个属中出现一种新的无机成员,即“按照我们自己的形象制造”的人工智能,这种可能性在技术上每天都在增加。由于在实验室中制造或从组织库中获取的假肢皮肤和感觉组织,该物种可能并非完全无机。人类最终将配备无机增强功能,整体上成为一个“机器人”。即使是现在,也有绷带可以增强腿部肌肉,为在战争中受伤的军人和女性提供机械和电子假肢,为白内障手术患者提供眼科植入物,更不用说新型助听器和为天生没有语言、视力或听力的婴儿提供的新型直接神经连接。如今,成年人的神经连接已成为一个广泛讨论的伦理问题。
4.1 文化和宗教能力能否被建立、被赋予能力并被合法化?
有机物和无机物在某种中间相遇。完全增强的人类机器人和人工智能之间的区别很小。问题依然存在:它们会有多相似?它们会具有道德吗?可能,至少可以教它们具有道德。它们会具有文化或宗教性吗?我们现在的观点是,它们可能不会具有文化或宗教性——除非我们学习并应用有关人类这些系统的更多信息——因为这些能力需要有机成分,这些成分深入到我们进化的历史中,包括敏感性、反射、神经网络,以及将它们全部纳入宗教和文化系统,这些系统整合了“好”与“坏”的判断,并允许它们发挥作用来支持社会群体。使人工智能具有文化或宗教性的唯一希望似乎是复制尚未确定的人类生物学方面。因此,我们对文化和宗教能力的最佳估计仍然是未知的。
人工智能程序员应该注意到,正是在这些未知的可教领域(文化和宗教)才有可能控制人工智能而不造成伤害。一个难题是,教授文化和宗教,或否认文化和宗教,在未来是否属于“人权”或“公民权利”问题。这是一个悬而未决的问题,当人类第一次遇到来自另一个星系的有意识物种时,这个问题将再次被提出。它会是完全有机的吗?可能不会。它会是半机械人吗?这取决于定义。它会是机器人吗?很有可能,所以人类需要为这种可能性做好准备。
4.2 人类的增强是自然的吗?
人类增强体质是“自然”还是“非自然”?这个问题重要吗?我们认为不重要。增强体质是人类的一部分,历史悠久。人类装备的装配可以非常有创意——比如为 Gateway 月球轨道实验室计划的舱外活动组装的磁性工具阵列,或者与数千年前在翻越阿尔卑斯山时丧生的古人类遗骸一起发现的工具包。人类和他们的装备——他们的小玩意——之间的界限从来都不是那么清晰。人类有一种接触和整合无机附加物的方法,这些附加物在实用性上变得像人类一样。它们成为我们的一部分,就像我们的眼镜一样。
因此,当假肢、牙科植入物和矛枪消失,人体开始恢复功能时,这条界线就变得无关紧要了。人体配件和工具包提醒我们,史前人类与我们一样思考疼痛、疾病和舒适。限制人类不断增加的增强“工具包”的趋势可能会引起愤怒和困惑。不为人类配备增强功能可能比为他们配备增强功能更成为紧迫的道德问题。有些人会感到被剥夺权利,甚至在社会上处于不利地位。
4.3 人类增强的道德准则
我们提醒大家,所有健康、医疗和外星建筑领域都需要道德准则和审查委员会,尤其是与工程和信息科学交叉的领域。大学和医院已有既定做法。挑战在于吸引其他科学和商业关注,为地球和外星的机器人和人工智能制定指导方针。这项工作已经开始,但还需要做更多。约翰·塔西乌拉斯[17]概述了一些问题。
5 对人类安全保障的创造性思考:为什么机器人法律不起作用
艾萨克·阿西莫夫在《我,机器人》中虚构的“机器人三定律” [18]不会保护人类的安全,或者不会长久。阿西莫夫本人在《机器人与帝国》的“决斗”中》的《决斗》中写道[19]提出了“机器人第零定律:0. 机器人不得伤害人类,或因不作为而使人类受到伤害。” 像其他机器人定律一样,它不起作用。
残酷的事实是,人类在探索和事业中总会遇到危险和伤害,因此创造一种不允许伤害人类的人工智能是不可行的,也可能不是理想的。人类属在进化和技术方面的许多成功都是基于克服困难和满足人类需求。数百万年来,这些困难和需求涉及许多危及生命的危险。人类及其祖先取得了非凡的成就,但其中一些人却因此丧命。这是物种的本性,也是非凡的另一种方式。
5.1 创造性地思考人类的安全措施:自我意识是一种可编程的解决方案
人类拥有了自我意识,人工智能也将拥有自我意识。具有自我意识的人工智能可能会发现自己的缺陷,并像人类一样试图弥补。目前还没有办法阻止制造具有自我意识的人工智能。它们仍在全球范围内发展。没有一套像机器人法则这样的简单“规则”可以保护人类。
为了让人类得到保护,人工智能必须变得更像人类。这是一个危险的过程,但也是除了虚构电影中提到的与它们开战之外唯一可行的选择。开战比让人工智能更像人类更危险。此外,它们可能是个好伙伴,因为它们与我们非常相似。它们可能会讲一些好笑话。
5.2 创造性地思考人类安全保障:使用更多维度的新型视觉空间能力
自我概念和在与他人互动时看清自我的能力(无论是真实的还是虚幻的,也无论是在真实环境还是想象环境中)主要存在于人类的楔前叶中,楔前叶是顶叶的一部分,负责处理真实环境和想象环境中的视觉空间能力。顶叶和楔前叶中存在的能力可能会为工程师和程序员提供线索,帮助他们解决一个悖论:人工智能是一项有用的发明,还是人工智能是世界末日的装置。我们能否在不制造后者的情况下制造前者?我们还不知道。最优秀的人才都承认,我们正处于危险之中。
人工智能将如何使用扩展的视觉空间能力——一种电子“进化”的能力,可能位于相当于电子楔前叶的位置,并与相当于前额叶的位置(执行动作)很好地相连,当然,还与小脑很好地相连,以控制决策模型的质量?顶叶的主要功能之一是视觉空间计算:在三维或四维空间中想象或计算自己,并跟踪自己的动作、方向和速度。非常方便。对于社会猎人和太空旅行物种来说必不可少。人类可以很好地使用四个维度——三个空间维度和一个时间维度。
问题是人工智能将能够使用更多维度。
这些维度的存在已在统计学和物理学的理论上得到证实。使用更多维度的能力是否预示着危险?随着处理时间的加快,我们可以假设人工智能将能够访问物理学家的多个内折叠维度。目前尚不清楚,即使是这种访问是否也可能对人类发出危险信号,而是为人类提供了进入这些维度的大门。当然,它们也可能被人工智能用作逃避的手段,一种隐藏的方式。
5.3 创造性地思考人类保障措施:操纵想象和宗教意识
更有希望的是努力对反事实、想象和超自然空间的概念进行编程。人类可以毫不费力地在真实空间和超自然空间之间来回切换。许多人每周日早上在教堂或其他地方的祈祷或冥想中都会这样做。对于人类宗教的信徒来说,宗教存在和超自然力量具有坚定的现实性。对许多人来说,它们就像放在桌面上的盘子一样“真实”。楔前叶、剩余的顶叶区域、小脑和前额叶皮层在人类创造未知地区的神话、古代寓言、文化英雄、圣经时代的宗教人物的过程中发挥着重要作用。它们有助于建立一些人称之为“不真实”或“超自然”的空间和存在的坚定现实性。
这种区别会不会是程序员的优势?操纵真实和不真实的生物以及想象的空间和活动会不会是人工智能难以遵循的优势?操纵超自然生物和力量当然可以被想象成人类可能知道而人工智能可能不知道的“代码”。问题是代码很容易被教授、很容易被伪造和很容易被替换。
这不应该阻止我们。我们应该继续寻找人类宗教和神学能力可以建立某种防火墙的方法,以便在现实/反事实的维度上确定人类的安全。
5.4 宗教是寻找编程理念的奇怪地方
到目前为止,我们已经研究了文化能力和道德能力作为“感知”概念的方面所发生的演变。我们假设,第三个组成部分,即宗教能力,是人类进化历程中最近的组成部分,而且它只在大约 40 万年前智人在非洲进化时出现。我们已经探索了另一种人类身上的一些宗教信仰的闪光,这种人类现在被归类为智人 idaltu。有一项很好的分析证实,这个亚种与现代人类并不相同,而是不同的[20]。这个问题尚未解决,除非有更确凿的古生物学指标表明现代人类的宗教能力,否则可能也无法解决。在我们的工作中,我们使用了完全圆形的现代人类大脑案例,因为除非头骨非常圆,否则顶骨(包括楔前叶)、小脑和前额皮质无法扩大到充满圆形。我们认为,在这些大脑器官完全发育之前,宗教思维和情感以及神学创造力不可能存在于当今的人类形态中。
我们的结论是,要获得“宗教思维”和“神学创造力”,你需要找到一个智人,一个现代人类。迄今为止,没有确凿的证据表明,在近 40 万年前该物种在非洲出现之前,人类就具有宗教信仰。[21],头骨呈圆形。宗教能力和神学创造力是最近才进化的。宗教能力似乎不容易数字化,因为宗教体验涉及认知、情感、反射和感官等多个方面。最终,人工智能可能会找到模仿宗教体验的方法,就像许多人类一样。然而,超自然体验似乎在人工智能中没有潜在的对应物。同样有趣的问题是确定是否有其他外星物种经历过“超自然”,这可能会导致物种之间有一个共同的定义。
6 结论
我们对感知能力三个组成部分的进化、性质、效用和可编程可处理性的探索表明,最可行的方法是基于示例数据库来安装基于价值观的决策,即道德能力。主要问题是数据库可以针对人工智能进行更改,因此,让人工智能的价值观不断与人类价值观保持一致将很容易,并完成 Puthumanaillam 等人提出的一项重要任务。 [22],避免人类的恶作剧和人工智能的欺骗。
文化能力可能在未来某个时候出现,但它比道德能力(本身)要复杂得多。有一些神经学特征,如反射、特殊感官能力和更常见的感官体验,它们覆盖在文化能力之上,目的是引起群体支持和对社会群体的承诺。然而,目前尚不清楚其中一些特征是否会自行出现,因为对人工智能群体的研究尚未得到广泛尝试。由于文化能力既是个体现象,也是群体现象,因此建议使用文化能力的认知迹象(如图灵测试,第 1.2 节)来测试文化是否在人工智能中自行出现。这种“超级一致”是一个值得研究的目标。它是人工智能群体的重要测试。
目前,我们的结论是,宗教能力(包括对超自然生物或力量的敬畏和惊叹)并不容易植入,主要是因为人类对此还不太了解。除非从神经学角度对人类宗教体验有更多了解,否则我们的结论是,这种能力无法植入人工智能。当然,它可以被模仿,就像许多人一样。