九号胡同

 找回密码
 注册
搜索
查看: 40|回复: 0

[百家杂谈] 与AI伦理学家聊聊如何让一个机器人做个好人?

[复制链接]

12万

主题

182

好友

237万

积分

超级版主

Rank: 8Rank: 8

开国元勋 股神 股神 胡同理事会 大资本家 大资本家 水龙王

发表于 2018-2-12 08:41 PM |显示全部楼层








与AI伦理学家聊聊如何让一个机器人做个好人? 

 2018-02-13 李斐然 人物


英国人阿兰·温菲尔德是世界上唯一一名AI伦理学家。作为西英格兰大学工程、设计和数学系的教授,他的主要研究内容就是机器人伦理。因为天天琢磨AI问题,他管自己叫做一个专业发愁的人。不过,与整日忧心AI毁灭人类的霍金不同,温菲尔德提出的更多是切实可行的应对之道。在他看来,AI虽然带来了令人发愁的伦理问题,但有些焦虑并没有必要。






采访|李斐然

编辑|金焰

插画|晁春彬




《人物》:你被称为目前世界上唯一的AI伦理学家,这是真的吗?一个AI伦理学家如何工作?


阿兰·温菲尔德:虽然还不能完全确认,但这样称呼我应该没有错。当然,在AI领域还有很多杰出的研究者,我想我跟他们最大的区别就是——只有我把这件事写进了工作头衔里。


AI发展到今天,它带来了很多伦理层面的影响,这其中涉及社会、经济、政治和环境领域。AI伦理是一个影响广泛的庞大话题,它不仅涉及AI如何影响我们每个个体,还包括它在伦理上如何影响社会,乃至整个地球。一个AI伦理学家的任务,就是去发现、研究AI的发展在这些领域带来的不道德问题」。


不过,我想说明的一点是,AI伦理和人类伦理其实并没有边界,也就是说,我所研究的对象依然是人——制造AI的人,可能是设计者、开发者,或者是维护者、维修者。


《人物》:关于AI伦理学的研究,可以举一些例子吗?


阿兰·温菲尔德:在实验室里,我们有一个非常直观的实验——我们会让一些小机器人扮演人的角色,它们在不断向前走,然后训练一个机器人学习如何阻止它们掉进前方的洞里。


最开始,负责保护的机器人做得不错。一个代表人的小机器人朝着洞的方向前进,保护机器人会马上冲过去,把它推到路边。但是当两个代表人的小机器人出现后,保护机器人开始慌了,它必须做出判断——该救哪一个呢?


有时候,它执意救其中一个人,而另一个人掉进了洞里。也有那么几次,它跑动比较快,两个人都得救了。但是在总计33次测试中,有14次实验结果都是,面对道德抉择,保护机器人花了大量时间慌张犹豫,无法作出决定,最后两个人都掉进了洞里。


我们管这种机器人叫做道德僵尸」,它虽然行动上拯救了别人,却并不懂得这背后的原因。这种情况对所有人最直观的例子,大概是无人驾驶汽车。尽管现实中可能还要很长一段时间才能在马路上看到它,但它提供了一个理解AI伦理问题的很好的思路——当无人驾驶车上载着乘客,路上有路人或是其他车,遇到不得不撞击的危机状况时,人类应该如何设计规则,是让它学习优先保护自己车上的乘客,还是保证车祸带来的损伤总人数最少?


与之相对的一门研究是创造讲道德的AI」,也就是说,AI可以自己做出道德判断,选择如何行动。但这是一门非常前沿的研究,目前在全世界范围内只有非常少的研究者从事相关工作,还不确定人类是否能创造出它们。所以想要看到一个讲道德的AI」的诞生,可能还要等上很多很多年。


《人物》:AI会出现什么样的「不道德行为」?


阿兰·温菲尔德:现在从很多案例可以看出,充满偏见的AI已经被开发出来了。有些AI做判断时存在歧视,比如交通监测领域的AI会更偏向中年白人,而认为黑人更容易违反交通规则。它们出现的最大原因,就是开发者在设计过程中存在大量偏差和失误,所有人类的偏见都被机器学习和吸收了,这是AI发展所面临的一种道德危机。


人脸识别是这方面最典型的例子。对AI来说,你给它的学习素材是什么样的,得到的AI就会是什么样的。如果所使用的学习数据直接来自互联网,这种素材本身就存在偏见,这样训练出的AI就非常容易更青睐白种人,特别是白种男人。


当然,引发一系列不道德问题」的AI,不仅仅指AI机器人,也包括AI系统。


在政治领域,我们注意到,类似Facebook这样的AI系统,被用来影响选举结果。很大程度上,这是一种有具体目标指向性的、不道德的广告。然而,并非Facebook本身不道德,不道德的是利用AI操控选举结果的这种人类行为。


同样的,在经济领域,我能想到的是另类交易系统」(alternative trading systems),这种AI系统能够依据一定规则,自动买入卖出股票或者其他证券产品。我不是金融方面的专家,但是我关注到,它们的行为导致了Flash Crush,也就是2010年的闪电崩盘」事件。


对我来说,带来伤害的行为就是不道德。一个最容易理解的不道德案例,就是电脑病毒——一个非常小的AI程序,设计初衷就是为了带来伤害,这是一种非常明显、故意为之的不道德。


《人物》:是什么让机器人拥有了道德?决定AI是否有道德的因素是什么?


阿兰·温菲尔德:事实上,这句话应该这么说——大部分的机器人并非没有道德,它们只是与道德无关」。没什么讲不讲道德之分,是人类的使用方式让它们面对了伦理困境。


就拿车来举例吧,当你开车去帮助别人,送祖母去超市买东西,送病人去医院就诊,车是一个讲道德的好机器。但车同样可以做恶,如果你是一个坏心肠的人,也可以开车去抢银行、去杀人。


一个有道德的开发者所开发出来的AI,显然要比道德水平低的同行做出来的更守伦理。但想要一个机器人能够自主作出伦理判断,知道如何在伦理困境下抉择,所需要的远远不止一个有道德的开发者。


为此,我参与开发了一系列的机器人道德标准。其中,BS8611是全世界第一份机器人道德标准,它其实更像是「工程师的工具箱」,这份指南提供了AI设计的一系列基本准则,比如机器人的设计不应该以杀害或者伤害人类为主要目的,以及任何机器人都应该有负责人,由这个人类为机器人的行为负责。你可以利用它对自己的系统进行「道德风险评估」,通过这种方式,将AI可能带来的道德问题风险降到最低。


《人物》:如果公司应用了这种道德风险标准,会影响他们赚钱吗?你有信心说服他们牺牲赢利,而变得更有道德吗?


阿兰·温菲尔德:这也许会影响直接赢利,但是在我看来,一个公司如果能够主动承担道德责任,它们会更容易取得商业上的成功。就拿我来举例,我会拒绝使用道德低下的公司的产品,哪怕它给我省了钱或者带来了便利。至少在英国,像我这样的消费者越来越多。


《人物》:很多科学家对AI持消极态度,比如史蒂芬·霍金教授就曾说过,「开发完全的人工智能,可能导致人类灭亡。一旦它们被设计出来,就会自我启动,并高速自我更新。人类受到缓慢的生物进化的限制,无法与之竞争,最终将会被其取代。」在人工智能的道德问题上,你也有焦虑吗?


阿兰·温菲尔德:这一点我曾在接受BBC采访时说过,我认为霍金教授的观点毫无意义。霍金教授所谈到的问题,是基于一系列连锁反应后的一个小概率可能性。人工智能还远远没有那样智能,而且他所提到的问题也并不是不可避免的。相比之下,我们应该考虑的是更多更现实的焦虑,比如AI带来的财富和性别的不平等。


此刻世界上最富有的人,这一代的亿万富翁,正因为AI变得更加有钱,比如亚马逊的杰夫·贝索斯。我认为,一个更讲道德的AI应该造福于整个社会,而不是极少数的超级富人。


另一方面,在AI领域,没有足够多的女性参与其中,特别是在中高层级。AI的发展并没有正确体现出女性的需求。


《人物》:你的日常工作是思考机器人的伦理问题。那么作为人类的你,也遇到过伦理困境吗?你是怎么解决的?


阿兰·温菲尔德:事实上不止是我,我们每个人的每一个决定,多多少少都会涉及伦理问题。你也可以想一想,这时候你都是怎么处理的呢?你会思考,会关心,会爱,会秉持着正义感和责任心去面对。这也是我对伦理困境找到的一大对策:当你需要做出决定的时候,记着要有正义感和责任心。

您需要登录后才可以回帖 登录 | 注册

手机版|www.hutong9.net

GMT-5, 2018-5-25 09:17 PM , Processed in 0.087138 second(s), 21 queries .

Powered by Discuz! X2.5

© 2001-2012 Comsenz Inc.

回顶部