微软的AI研究在可能的虚假信息使用方面引起争议 | 智能技术

发布日期:2019-11-18 10:00
微软的AI可以使其受欢迎的聊天机器人对新闻发表评论,但批评者看到了传播虚假信息的工具。



能够自动在新闻文章上发表相关评论的AI引发了人们的担忧,即该技术可以支持旨在影响公众舆论和全国选举的在线虚假信息宣传活动。由微软亚洲研究院和中国北京航空航天大学进行的有关AI的研究甚至在本周的一次重要AI会议上论文定稿之前就成为争议话题。
微软和北京航空航天大学团队合作开发的“ DeepCom”人工智能模型表明,它可以通过阅读和评论中英文新闻文章来有效模仿人类行为。而T3 他原论文上传至9月26日的arXiv预印本服务器没有提到关于技术可能被滥用的道德问题。遗漏引发了强烈反对,最终促使研究团队上传了针对这些担忧的最新论文。
普林斯顿大学信息技术政策中心的计算机科学家Arvind Narayanan 在Twitter上写道:“北京研究人员的一篇论文提出了一种新的机器学习技术,其主要用途似乎是拖钓和虚假信息。”“该语言已在EMLNP [sic]上接受发表,该语言是自然语言处理研究的三大场所之一。”
微软和北京航空航天大学的论文激起了更广泛研究界关于机器学习研究人员是否应该遵循更严格的准则并更公开地承认某些AI应用程序可能产生负面影响的讨论。该论文目前计划于 11月7日在香港举行的2019年自然语言处理经验方法会议(EMNLP)上发表。
Narayanan和Google Brain Research的科学家David Ha都对原始论文的建议表示怀疑,后者认为“自动生成新闻评论对实际应用是有益的,但并未引起研究界的足够关注。” Ha讽刺地询问是否会是有关称为“ DeepTroll”或“ DeepWumao”的AI模型的后续论文(“ Wumao”是中共聘用的中国互联网评论员的名称,目的是通过在线评论来帮助操纵公众舆论。)
曾担任OpenAI研究组织政策总监的前记者杰克·克拉克(Jack Clark)对报纸的建议提出了更直截了当的反驳:“作为前记者,我可以告诉你,这是个谎言。”
宾夕法尼亚州大学维尔斯分校的Ursinus学院的计算机科学家Alvin Grissom II 等研究人员提出了有关哪些类型的AI研究应由EMNLP之类的著名研究会议公开的问题。Grissom在Twitter帖子中说:“我认为,对可能被滥用的基本问题的研究与特别适合于,甚至不是为滥用而设计的应用之间,在质量上存在差异。”
微软和北京航空航天大学的研究人员更新后的论文,承认了一些道德问题,是在Katyanna Quach报告了有关The Register的争议后上传更新后的版本还删除了原始论文中有关“自动新闻生成对实际应用的好处”的声明。
研究人员在最新论文的结论中写道:“我们意识到,使用这些方法来生成被视为人类的新闻评论会带来潜在的道德问题。”“我们希望围绕技术的负责任使用激发关于这些方法的最佳实践和控制的讨论。”
更新后的论文关于可能的应用程序的结论还特别提到了该团队“有动机扩展流行的聊天机器人的功能。”几乎可以肯定地指的是微软在中国的聊天机器人小ice。它在全球拥有超过6.6亿用户,并已成为中国的虚拟名人。DeepCom论文的合著者之一,魏武(Wei Wu)担任北京Microsoft Research Asia的Microsoft Xiaoice团队的首席应用科学家。
到达评论时,微软和北京航空航天大学的研究人员没有提供太多额外的意见。相反,Wu和Microsoft代表都提到了承认道德问题的论文的更新版本。但是微软代表甚至无法将IEEE Spectrum推荐给任何一位可以谈论该公司研究审查过程的消息来源。
Narayanan在给IEEE的电子邮件中写道:“我想听听微软是否制定了任何道德审查流程,以及他们是否打算在未来对他们的流程进行任何更改,以回应对本文的关注。”频谱。他先前的工作包括研究AI如何从语言中学习性别和种族偏见
微软此前通过诸如公司的AI和工程与研究道德(AETHER)委员会之类的举措,确立了自己在AI道德领导者中的地位。该委员会的建议据称已导致微软过去拒绝其商业化技术的某些销售。目前尚不清楚在AI应用和商业化阶段之前,AETHER参与了多少筛选AI研究合作的工作。
与此同时,纳亚拉南(Nayaranan)和其他研究人员也在香港举行的EMNLP会议上询问了有关论文接受审查程序的问题。纳拉亚南(Narayanan)在Twitter帖子中写道:“如今的安全会议要求提交陈述以描述道德考量以及作者如何遵循道德原则。”“机器学习会议应该考虑这样做。”
Narayanan敦促会议参与者在论文的作者和会议的计划主持人两边提出问题。
组织者承认,作者和审稿人无需查看所提交论文中描述的技术的伦理考虑或社会影响。但评论家没有标志的基础上的道德问题的论文了一把,京江,在新加坡新加坡管理大学的计算机科学家谁在发布会上说,供应的组委会。委员会决定,任何要求削减技术优点的标记论文的作者都将被要求在修订后的草案中解决道德问题,并进行额外的审查。
但这有问题:姜说,微软和北京航空航天大学的DeepCom论文没有被任何评论家标记。也许是为了考虑在提交给未来会议的论文中考虑道德问题的更正式的准则。