人工智能的健康发展必须有严格的管理规则 | 广东省智能创新协会

发布日期:2019-05-18 10:00
技术进步减少了全球贫困,给了我们更长的生命,并提供了信息高速公路。但最近人工智能的发展令我感到疑惑。——澳大利亚神经科学首席科学家ALAN FINKEL



当我记得1962年苏联和美国之间的核僵局时,我的脊椎仍然颤抖。作为一个九岁的孩子,面对两位准备按下按钮的领导者,我感到无助。

这是MAD--相互确保的破坏 - 但是理智占上风,到了1960年代末,我们已经缓和了。

几十年以来,我对能够减少全球贫困的令人眼花缭乱的技术进步感到满意,给予我们更长的生命,提供了信息高速公路并创造了我的零排放特斯拉。

是的,有一些令人失望的事情 - 例如,互联网并没有提高谈话的水平,反而创造了偏见的回声室以及谎言和骚扰的论坛。

但是,现在这是自20世纪60年代以来的第一次有些令人担忧的问题:人工智能。我担心人工智能有能力破坏我们的人权和公民自由。

虽然人工智能自20世纪50年代以来一直在后台开发,并且在过去几年中越来越多地由企业和政府实施,但我相信2018年将是人工智能未来到来的一年。

我很清楚以前令人印象深刻的发展,例如名为AlphaGo的AI 击败世界围棋冠军,但我不玩Go。但是,我确实依赖我的行政助理。所以今年,谷歌公开展示了一个名叫Duplex的数字助理,叫做美发沙龙,为其老板预约,用一种充满人类停顿和口语的圆润女声说话,我知道AI已经到了。

不久之后,IBM演示了Project Debater争论一个针对熟练人类的无脚本主题。一些观众认为Project Debater是胜利者。

人工智能的最简单定义是计算机技术,可以完成通常需要人工智能的任务。更正式地说,AI是机器学习算法,大数据和训练过程的组合。这模仿了人类的智慧:先天能力,知识获取和教师的结合。

也像人类一样,在人工智能方面,有好的,坏的和丑的。

好处:数字助理,用于诊断癌症的医疗AI,用于确定家庭最佳方式的卫星导航以及以某种方式知道您的信用卡被欺诈使用的系统。

坏处:用于帮助美国法官的COMPAS风险评估软件中发现的偏差通过预测被告重新犯罪的可能性来确定判决。经过两年的评估,发现COMPAS高估了黑人被告的重新犯罪率,并低估了白人被告的再犯率。我认识的每个人都有偏见,那么为什么人工智能有偏见呢?因为它很有可能被数百万人复制和销售,从而在整个地球上传播偏见。

丑陋的:想想奥威尔的1984年。现在看一下中国的社会信用评分,在街上观看公民并在家监控,因乱扔垃圾或迟交账单而失去积分,因此被拒绝银行贷款或旅行权利。

那么我们怎样才能利用好处但避免坏事和丑陋呢?我们必须积极管理人工智能与人类社会的融合,就像我们在电力,汽车和药品方面所做的那样。正如我们为IVF做的那样,澳大利亚可以成为第一个整理和报告出生结果的国家,也是第一个公布国家道德准则的国家。要想获得好处并避免陷阱,需要进行公开讨论。7月,澳大利亚人权委员会启动了一个人权和数字技术项目。在我的主题演讲中,我完成了一个问题:“我们想成为什么样的社会?”

辩论开始时,这里有一些开始的建议。

首先,采用自愿的,消费者主导的商业AI认证标准,类似于公平贸易的咖啡印章。我称之为“图灵证书”,以纪念受艾滋的迫害之父艾伦·图灵。它不会阻止犯罪分子和流氓国家,但它将有助于我们选择购买的智能手机和家庭助理。

其次,采用澳大利亚内政部负责人Michael Pezzullo提出的“黄金法则” :任何人都不应被计算机而不是负责任的人剥夺其基本权利,特权或权利。

第三,永远不要忘记AI实际上并不是人类。这是一项技术。我们做到了。我们负责。因此,我提出了“白金规则”:每个AI应该有一个关闭开关。