我们应不应该担心超级智能的人工智能? | 智能技术

发布日期:2019-10-25 10:00
斯图尔特·罗素(Stuart Russell)的新书《人类兼容》探讨了确保超级智能机器不会造成危险的方法。


图片:Jamie Chung/Trunk Archive; Hand: Justin Metz

人工智能研究正朝着它的长期目标,即人类水平或超人智能机器,迈进一大步。然而,如果它以目前的形式取得成功,那对人类来说将是灾难性的。原因是人工智能的“标准模型”要求机器追求人类指定的固定目标。我们无法完全正确地规定目标,也无法预见或防止追求错误目标的机器在全球范围内以超人的能力运行时所造成的危害。我们已经看到了一些例子,比如社交媒体算法,它们通过操纵人们的偏好来学习优化点击,给民主制度带来灾难性的后果。

尼克·博斯特罗姆(Nick Bostrom)2014年出版的《超智能:路径、危险、战略》(Superintelligence:Paths,Dangers,Strategies)一书详细阐述了认真对待风险的理由。《经济学人》杂志对博斯特罗姆这本书的评论以“将第二个智慧物种引入地球的意义深远,值得深思”结尾,大多数人认为这是英国人轻描淡写的一个典型例子。

当然,在如此多的利害关系中,今天的伟大思想已经在进行认真的辩论,权衡风险和利益,寻求解决方案,找出解决方案中的漏洞,等等这些艰难的思考。据我所知,还没有。相反,大量的努力变成了各种形式的否认。

一些著名的人工智能研究者采用了几乎不值得反驳的论点。以下是我在文章中读到或在会议上听到的几十篇文章中的几篇:

1.电子计算器在算术方面是超人。计算器并没有占领世界,因此,没有理由担心超人的人工智能。

2.从历史上看,没有机器杀死数百万人的例子,因此,通过归纳法,这种情况在未来是不可能发生的。

3.宇宙中没有一个物理量是无限的,包括智力在内,所以对超级人工智能的担忧被夸大了。

也许人工智能研究人员最常见的反应是说“我们总是可以把它关掉。”艾伦·图灵(Alan Turing)自己提出了这种可能性,尽管他并不太相信:

1.如果一台机器能思考,它可能比我们更聪明,然后我们应该在哪里?即使我们可以让机器处于一个被驱使的位置,例如在关键时刻关闭电源,我们作为一个物种,也应该感到它们容易被打败……这种新的危险……肯定会让我们感到焦虑。

关闭机器是行不通的,原因很简单,一个超级人工智能实体已经考虑到了这种可能性,并采取了措施来防止这种可能性。它这样做并不是因为它“想活下去”,而是因为它正在追求我们给它的任何目标,并且知道如果它被关闭,它将失败。我们不能再“关掉它”,就像我们可以击败阿尔法狗(世界围棋冠军),只要把棋子放在正确的方块。

其他形式的否认也需要更复杂的想法,比如智力是多方面的。例如,一个人可能比另一个人拥有更多的空间智能,但社会智能却更少,因此我们不能按照严格的智能顺序排列所有的人类。机器更是如此:将阿尔法狗(Alphago)的“智能”与Google搜索引擎的“智能”进行比较是毫无意义的。


图片:Justin Metz

《连线》杂志的创始编辑凯文·凯利(Kevin Kelly)是一位非常敏锐的技术评论员,他将这一论点向前推进了一步。在《超人人工智能的神话》中,他写道:“智能不是一个单一的维度,所以‘比人类聪明’是一个毫无意义的概念。”在一次打击中,所有对超智能的担忧都被抹去了。

现在,一个明显的反应是,一台机器在智力的所有相关方面都可能超过人类的能力。在这种情况下,即使按照凯利的严格标准,这台机器也会比人类更聪明。但这种相当强烈的假设并没有必要反驳凯利的论点。

想想黑猩猩。黑猩猩可能比人类有更好的短期记忆,甚至在面向人类的任务中,比如回忆数字序列。短期记忆是智力的一个重要方面。那么,根据凯利的论点,人类并不比黑猩猩聪明;事实上,他会声称“比黑猩猩聪明”是一个毫无意义的概念。

这对黑猩猩和其他只因我们屈从而生存的物种,以及所有我们已经灭绝的物种来说,都是一种冰冷的慰藉。对于那些担心被机器消灭的人来说,这也是一种冰冷的安慰。

超级人工智能的风险也可以通过辩称超级人工智能自身无法实现来消除。这些说法并不新鲜,但令人惊讶的是,现在看到人工智能研究人员自己声称,这样的人工智能是不可能的。例如,ai100组织的一份重要报告《2030年的人工智能与生命》(Artificial intelligence and life in 2030,pdf)中就有这样的说法:“与电影中不同的是,在地平线上甚至可能没有超人机器人的种族。”

据我所知,这是严谨的人工智能研究者第一次公开支持这样的观点,即人类级或超人级的人工智能是不可能的,而这是在人工智能研究取得极其迅速进展的时期,一个又一个障碍正在被突破。就好像一群顶尖的癌症生物学家宣布他们一直在愚弄我们:他们一直都知道永远不会有治愈癌症的方法。

是什么激发了这么大的兴趣?报告没有提供任何论据或证据。(事实上,有什么证据可以证明,在物理上不可能有原子排列方式胜过人脑?)我怀疑主要的原因是部落主义——一种围着马车转的本能,反对被认为是对人工智能的“攻击”。然而,认为超级智能人工智能有可能是对人工智能的攻击,这似乎很奇怪;更奇怪的是,认为人工智能永远不会成功实现其目标,从而捍卫人工智能。我们不能仅仅依靠人类的聪明才智就为未来的灾难投保。

如果说超人的人工智能并不是完全不可能实现的,那么也许它离我们太远了?这正是伍德龙(Andrew Ng)断言的要点,他认为这就像担心“火星上的人口过剩”,不幸的是,长期的风险仍然会引起人们的直接关注。对人类来说,担心一个潜在的严重问题的正确时机不仅取决于问题何时出现,还取决于准备和实施解决方案需要多长时间。

例如,如果我们在2069年探测到一颗正在与地球相撞的小行星,我们会等到2068年才开始研究解决方案吗?离它很远!将有一个世界性的紧急项目来开发应对威胁的手段,因为我们不能提前说需要多少时间。

伍德龙(Ng)的论点也吸引了人们的直觉,那就是我们甚至不太可能一开始就把数十亿人转移到火星上去。然而,这个比喻是错误的。我们已经投入了大量的科学和技术资源来创造更强大的人工智能系统,很少考虑如果我们成功了会发生什么。一个更贴切的比喻是,计划将人类迁移到火星,但是不考虑我们到达火星后可能需要的呼吸环境、饮水或进食的东西。有人可能会说这个计划不明智。

另一种避免潜在问题的方法是断言,对风险的担忧源于无知。例如,艾伦人工智能研究所(Allen Institute for AI)首席执行官奥伦·埃齐奥尼(Oren Etzioni)指责卢德迪姆的埃隆·马斯克(Elon Musk)和斯蒂芬·霍金(Stephen Hawking),因为他们呼吁并承认人工智能可能造成的威胁:

1.每一次技术创新的兴起,人们都被吓坏了。从工业时代初期的织布工把鞋子扔进机械织布机,到如今对杀人机器人的恐惧,我们担心的是不知道新技术会对我们的自我意识和生计产生什么影响。当我们不知道的时候,我们心会被这些恐怖的细枝末节所填满。

即使我们从表面上看这是一个典型的原始人论点,它也站不住脚。霍金对科学推理并不陌生,马斯克曾监督和投资过许多人工智能研究项目。如果说比尔·盖茨、I.J.古德、马文·明斯基、艾伦·图灵和诺伯特·维纳都提出了问题,但他们都没有资格讨论人工智能,那就更不合理了。

对卢德迪姆的指控也是完全错误的。当核工程师指出需要控制核裂变反应时,人们似乎是在指责他们是路德主义者。另一种说法是,他们提到风险也意味着否认人工智能的潜在好处。例如,这里又是奥尼;   奥伦·埃奇奥尼(Oren Etzioni):

1.一味厄运和悲观的预测往往使人们没有考虑到人工智能在预防医疗错误、减少车祸等方面的潜在好处。

以下是Facebook首席执行官马克•扎克伯格(Mark Zuckerberg)最近与埃隆•马斯克(Elon Musk)在媒体推动下的一次交流:

  1. 如果你反对人工智能,那么你反对的是不会发生事故,让乘客与司机更安全汽车。你反对在人们生病时更好地诊断他们“好医生”。

任何提到风险的人都是“反对人工智能”的说法似乎很奇怪。(核安全工程师“反对电力”?)但更重要的是,整个论点恰恰是相反的,原因有二。首先,如果没有潜在的好处,就不会有人工智能研究的动力,也不会有达到人类级人工智能的危险。我们根本就不会讨论这个问题。其次,如果风险得不到缓解,就没有任何好处。

在1979年三里岛核电站、1986年切尔诺贝利核电站和2011年福岛核电站发生的灾难性事件,核能的潜在效益大大降低。这些灾难严重阻碍了核工业的发展。意大利在1990年放弃了核能,比利时、德国、西班牙和瑞士也宣布了放弃核能的计划。1991年至2010年每年新增净产能约为切尔诺贝利事故前几年的十分之一。

奇怪的是,鉴于这些事件,著名的认知科学家史蒂文·平克(steven pinker)认为,不应该引起人们对人工智能风险的关注,因为“先进社会的安全文化”将确保消除人工智能带来的所有严重风险。即使我们无视我们先进的安全文化导致切尔诺贝利、福岛和失控的全球变暖这一事实,平克的论点也完全没有抓住要点。当它工作时,安全文化正是由人们指出可能的故障模式并找到预防方法组成的。而对于人工智能,标准模型是失效模式。

平克还认为,有问题的人工智能行为源于特定类型的目标;如果忽略了这些目标,一切都会好起来的:

1.人工智能反乌托邦计划一个建立在狭隘的阿尔法男性心理学的智力上的概念。他们认为,超人智能机器人将发展目标,定义为:如罢免他们的主人或接管世界。

吴恩达(Yann Lecun)是人工智能深度学习的先驱,也是Facebook人工智能研究的主管,在淡化人工智能带来的风险时,他经常引用同样的观点:

  1. 没有理由让爱有自我保护的本能,嫉妒等等…(人工智能)AI们不会有这些破坏性的“情绪”,除非我们把这些情绪融入其中。

不幸的是,不管我们是建立在“情感”还是“欲望”中,比如自我保护、资源获取、知识发现,或者在极端的情况下接管世界。不管怎样,这台机器都会有这些情绪,作为我们所建立的任何目标的子目标,并且不管它的性别。正如我们在“关掉它”的论点中看到的,对于一台机器来说,死亡本身并不坏。尽管如此,死亡是要避免的,因为如果你死了,很难达到目标。


图片:Justin Metz

“避免设定目标”概念是一个常见变体,一个足够智能的系统,由于其智能,必然会自行制定“正确”的目标。18世纪的哲学家大卫.休谟在一篇关于人性的论文中驳斥了这一观点。尼克·博斯特罗姆(Nick Bostrom)在《超智能》(Superintelligence)一书中提出休谟作为正交命题的立场:

人工智能和最终目标是正交的:基本上,人工智能的智力水平或多或少都可以与任何最终目标结合起来。

例如,一辆自动驾驶汽车可以被停到任何特定的地址;使汽车成为一个更好的司机并不意味着它会自动开始拒绝前往被指定的17个地址。

同样,很容易想象,一个通用智能系统可以或多或少地被赋予任何追求的目标,包括最大化回形针的数量或圆周率(Pi)的已知位数。这就是强化学习系统和其他奖励优化器的工作原理:算法是完全通用的,可以接受任何奖励信号。对于在标准模型内工作的工程师和计算机科学家来说,正交性理论只是一个给定的命题。

对博斯特罗姆正交性理论最明确的批评来自著名的机器人学家罗德尼·布鲁克斯(Rodney Brooks),他声称一个程序不可能“足够聪明,以至于它能够以颠覆人类社会的方法,来实现主人为它设定的目标,从而不了解它是如何给人类带来问题的。”

不幸的是,一个程序不仅有可能这样做,事实上也是不可避免的。这种给定的方式是布鲁克斯定义的问题。布鲁克斯认为,机器“实现人类为其设定的目标”的最佳计划正在给人类带来问题。因此,这些问题反映了对人类有价值的东西,而人类为之设定的目标却忽略了这些东西。机器正在执行的最佳计划很可能会给人类带来问题,机器也很可能意识到这一点。但是,根据定义,这台机器不会将这些问题视为问题。他们不关它的事。

总之,“怀疑论者”——那些认为人工智能的风险可以忽略不计的人,未能解释为什么超级智能的人工智能系统必然会继续处于人类的控制之下;他们甚至没有试图解释为什么超级智能的人工智能系统永远不会被开发。

人工智能社区必须承担风险,并努力减轻风险,而不是继续陷入部落骂名和反复挖掘不可信论点。就我们所知,这些风险既不是最小的,也不是无法克服的。第一步是实现人工智能系统优化一个固定目标的标准模型必须被取代。这简直是个糟糕的工程。我们需要做大量的工作来重塑和重建人工智能的基础。