为什么人们要在世界上第一台聊天机器人面前吐露隐私 | 智能技术

发布日期:2019-12-16 10:00
1966年,Eliza项目没能说明什么,但已经足够了。



计算机科学家Joseph Weizenbaum和他的聊天机器人Eliza,运行在一台36位的IBM 7094主机计算机上。

这是关于自然语言处理历史的6部分系列文章的第4部分。
1964年至1966年间,麻省理工学院人工智能实验室的德裔美国计算机科学家Joseph Weizenbaum研制出了世界上首个聊天机器人。
虽然已经有了一些基本的数字语言生成器——这些程序可以输出多少连贯的文本行——weizenbaum的程序是第一个明确为与人类交互而设计的程序。用户可以用正常语言输入一些语句或一组语句,然后按回车,然后从计算机接收响应。正如魏岑鲍姆所解释的,他的程序使“人与计算机之间某种自然语言的对话成为可能”。

他以萧伯纳《皮格马利翁》中的工人阶级英雄伊莉莎·杜利特尔的名字为这个节目命名。新的Eliza是用Weizenbaum开发的一种叫做madi - slip的编程语言为36位的IBM 7094(早期的晶体管大型计算机)编写的。

由于计算机时间是一种宝贵的资源,Eliza只能通过分时系统来运行;用户通过电动打字机和打印机与程序进行远程交互。当用户键入一个句子并按回车键时,一条消息被发送到主机计算机。Eliza扫描消息是否存在关键字,并将其用于一个新句子中,以形成一个响应,由用户发送、打印并阅读。

为了鼓励持续的对话,Weizenbaum设计了Eliza来模拟罗杰斯精神分析学家使用的对话风格。该程序将获取用户所说的内容,并用一个问题将其反映出来,如下面的示例所示。(注意这个程序是如何使用“男友”和“抑郁”这样的关键词并重新使用它们的。)

人类:男人都是一样的。
电脑:什么方式?
人类:他们总是为这样或那样的事情烦扰我们。
你能想出一个具体的例子吗?
人类:嗯,是我男朋友让我来的。
电脑:你男朋友让你来的
人类:他说我大部分时间都很抑郁。
电脑:听说你情绪低落,我很难过
人类:这是真的。我不开心。
魏岑鲍姆为伊莱扎选择了这种对话模式,因为它给人的印象是,电脑能听懂别人在说什么,而不必提供任何新的对话内容。它仅用200行代码就创造了一种理解和参与的幻觉。

为了测试伊莱扎与人交谈的能力,魏岑鲍姆邀请学生和同事到他的办公室,让他们在他旁边与机器交谈。他不无担忧地注意到,在与Eliza的短暂互动中,许多用户开始对算法产生情感依恋。他们会对机器敞开心扉,承认他们在生活和人际关系中面临的问题。

更令人惊讶的是,这种亲密感甚至在Weizenbaum描述了机器是如何工作的,并解释说它其实什么都听不懂之后依然存在。韦森鲍姆的秘书几个月来一直看着他从零开始开发这个程序,她坚持要他离开房间,这样她就可以私下和伊莉莎谈谈,这让韦森鲍姆感到非常不安。
对魏岑鲍姆来说,伊莱扎的实验让他质疑艾伦·图灵在1950年提出的关于机器智能的想法。在他的论文《计算机器和智能》中,图灵提出,如果一台计算机可以在文本中进行令人信服的人类对话,那么就可以认为它是智能的——这个想法后来成为著名的图灵测试的基础。

在与Eliza的短暂交互中,许多用户开始对算法产生情感依恋。
但伊莱扎证明,即使只有一方理解,人类和机器之间也可以进行令人信服的交流:对智能的模拟,而不是智能本身,就足以愚弄人。魏岑鲍姆称其为“伊莱扎效应”,并认为这是一种“妄想思维”,在数字时代,人类将集体遭受这种思维的折磨。这一见解对魏岑鲍姆来说是一个深刻的冲击,并决定了他未来十年的学术轨迹。

对智力的模拟,而不是智力本身,足以愚弄人。
1976年,他发表了《计算能力与人类理性:从判断到计算》(Computing Power and Human Reason: From Judgment to Calculation) [PDF],对人们为什么愿意相信一台简单的机器可能能够理解他们复杂的人类情感进行了长时间的思考。
在这本书中,他认为伊莱扎效应意味着一种折磨“现代人”的更广泛的病态。“在一个被科学、技术和资本主义征服的世界里,人们已经习惯于把自己看作是一架庞大而冷漠的机器上孤立的齿轮。Weizenbaum认为,在这样一个缩小了的社会世界里,人们变得如此渴望联系,以至于他们把理性和判断放在一边,去相信一个程序能够关心他们的问题。

魏岑鲍姆终其一生都在发展这种对人工智能和数字技术的人文主义批判。他的任务是提醒人们,他们的机器并不像人们常说的那样聪明。尽管他们有时看上去好像能说话,但他们从来没有真正倾听过。
这是关于自然语言处理历史的六篇系列文章的第四篇。上周的帖子描述了安德烈•马尔科夫(Andrey Markov)和克劳德•香农(Claude Shannon)为创建文本生成的语言统计模型所做的艰苦努力。下周一再回来看第五部分,它描述了微软2016年灾难性的实验,一个聊天机器人从Twitter上学习了语言的微妙之处。
你也可以看看我们之前关于AI不为人知的历史的系列报道。