手机那角落网

毁灭Or共生?AI的伦理道德研究

2018-06-14 那角落 >>头号人工智能

公元2035年,是人与机器人和谐相处的社会。

社会是需要规则的,犹如在人类社会中,法律对人类行为的约束以及既定的道德规范对人类行为的指引,在机器人的世界里,也有着“机器人三定律”等“法规”。

有了这些法则、定律,科幻小说家阿西莫夫笔下的机器人不再是“欺师灭祖”“犯上作乱”的反面角色,而是人类忠实的奴仆和朋友。

那个时代,有不会造成拥堵的无人驾驶汽车、在家可享受的未来医疗、与人类实时互动的智能家居、沉浸式体验的历史事件甚至是与人工智能的爱情 

但是,自人工智能诞生以来,“人类会不会被毁灭”“如果人类放手不管,不考虑道德伦理问题,计算机系统的演化会不会让我们懊悔不已”等这样的问题总是让我们更加审慎地对待人工智能的发展。

犹如电影《我,机器人》中的场景——机器人竟然具备了自我进化的能力,他们对“三大定律”有了自己的理解,他们随时会转化成整个人类的“机械公敌”。由此,一场制造者和被制造者之间的战争拉开序幕。

对于人工智能是否会毁灭人类,有人认为重要的不在技术,而是规则。

在人工智能这股不可逆的潮流中,前有阿西莫夫著名的机器人学三大定律,后有国际人工智能界正在日益重视的伦理与法律问题,如IEEE全球人工智能与伦理倡议、阿西洛马人工智能23条伦理原则相继出现。

显而易见,人类渴望着科技的进步,但又恐惧科技的进步。在我们想象并践行着人工智能如何改善生活的时候,也在考虑人工智能如何面对伦理道德问题。





乔·霍金斯(Joe Hawkins)是一个本分的英国人,他有三个小孩,最大的小孩已经上大学,他们过着普通中产阶级的生活:有车有房,每月偿还房贷。乔·霍金斯在一家物流仓储公司工作,担任区域物流中心经理,算得上公司中层。他每天的工作相对清闲,喝着咖啡、监督员工工作,同时协调处理一些相对复杂的事情。


一天,他的直属上司盖文(Gavin)从总部下来,告诉乔·霍金斯,公司决定进一步推进运营的标准化,其中一项举措是,考虑到最佳经济效益,公司决定区域经理的职位统一由AI机器人担任。这个变化,将先从乔·霍金斯所在的西南区开始落地实施。


乔·霍金斯觉得不可思议和很搞笑,他跟上司解释说他的工作关注和重视人际关系,需要展示温度(如记住工作伙伴和客户的生日)、协调处理一些微妙的关系。这种工作,并不是冷冰冰的AI机器人能做的。在一旁听的AI机器人莫里斯(Maurice)赶紧抢先回答了一些乔·霍金斯认为它没法处理的问题,回应了乔·霍金斯的质疑。


无言以对的乔·霍金斯对上司盖文说:几年前,当时我决定离职,是你挽留我,说我的工作岗位很安全,是铁饭碗;如今,我已经在这家公司工作了14年,现在你却让一个AI机器人来取代我的工作;你有没有想过,公司最高层也会把你的工作取代掉。


盖文无奈地回答:这不是针对谁,只是时代变了。



上面的故事,来源于美国和英国合作拍摄的科幻电视剧《真实的人类》(Humans)。虽然说是科幻片,但故事情节看起来却相当真实。


在不远的将来,AI机器人已经在各行业各领域得到了广泛应用,街上打扫卫生的、家里干家务的大多数是AI机器人;公司里面的助理、秘书类工作,出租车司机、商场服务员、医护人员、餐厅服务员、银行柜台员,很多劳累的工作岗位都已经被AI机器人广泛取代。和人类相比,这些AI机器人任劳任怨,只要电量充足,就能一直工作。


(电视剧《真实的人类》中从事清扫工作的AI机器人)


这仅仅是科幻片里面的场景?错了,这非常真实,并且很快会发生。


2013年,英国牛津大学的两名教授做了一项研究,主题是“未来哪些工作将被机器人取代”;后来的研究者根据这个研究,把各个岗位将被机器人取代的概率定量算了出来。被取代的概率较高的包括:电话推销员99.0%;打字员98.5%;会计97.6%;保险业务员97.0%;银行职员96.8%;接线员96.5%;前台95.6%;客服91.0%;保安89.3%。



实际上,这些工作岗位确实在迅速被取代。至于,是需要10年还是20年时间,业内有不同的意见。


2018年年初,有一篇文章刷爆了朋友圈:河北省唐山市撤销了周边所有路桥收费站,一些长期在收费站工作的职工被迫下岗;相关负责人鼓励大家重新就业,一名女职工说“我今年36了,现在啥也不会,我也学不了什么东西了”。

网民一般都同情弱者,但因为“我36了,啥也不会”这句话,这名女职工在网络上收到了很多冷嘲热讽。但她的遭遇是值得同情的,只要我们忘掉她是一名收费站的收费员(这个岗位确实有些不讨人喜欢):她原先以为的铁饭碗被打破了,她也没有其它技能,之后的生活会非常艰难。


我们都能想得到,收费站收费员的岗位被完全取代是迟早的事情,因为排队缴费的体验确实不好。如果要经常过某个收费站,肯定愿意办ETC自动缴费,而不是每次浪费时间排队。在这里,一个技术上比较简单的ETC就能让千千万万的收费站收费员的工作失去价值。


更为先进的人工智能技术呢?能让多少岗位的从业人员失去价值?



2017年10月的《纽约客》杂志,其封面引发了广泛讨论:在大街上,AI机器人、机器狗大步行走,路边有一个胡子拉碴的流浪汉(人类)带着他的狗在路边乞讨。有机器人放慢脚步,往流浪汉的杯子里面扔了些零钱……



显然,《纽约客》杂志有点危言耸听了。AI机器人要完全取代人类,成为统治人类的新物种,在可预见的将来,确实不太现实。乐观者会说,以往的历次科技革命,在淘汰了旧岗位的同时,也创造了很多新岗位;人类整体没有因此过得更差,而是过得更好了。


这一次的人工智能革命,会不会不一样?没有人能给出100%确定的答案。


我们能看到的新闻是:美国的科技巨头亚马逊的仓储中心,基本上已经完全自动化,物流机器人取代了大多数原先需要蓝领的工作岗位;18年前的2000年,高盛在纽约总部的现金股票交易柜台雇佣了600名交易员,如今岗位配置被全部取消了。


(亚马逊仓储中心的物流机器人)


中国也掀起了“无人革命”,打着“无人”概念的创业项目大量兴起。虽然大多数是噱头,但不可否认的是:即便是开便利店,现在嫁接机器视觉技术和自动化供应链系统,可以大幅降低对人的依赖,取得更好的经济效益和更快的发展速度。相对应的是,大量便利店工作人员,将面临再择业的阵痛。


国内一些科技巨头的负责人,大多对外表达过类似的观点:人工智能将取代人力,未来将减少人员招聘。只是,被舆论指责了一番后,大家纷纷假装不会降低招聘人数。从市场和追求经济效益的角度来看,这些巨头公司发力人工智能是必然的。只是,假装人工智能不会取代大量工作,他们自己很清楚,普通群众未必清楚;温水煮青蛙,这对普通群众来说,恰恰是最危险的。


旧的工作在被迅速取代,但新的岗位没有迅速地以同量级出现;在这一层面,这一次人工智能革命,不像以往那么乐观。



科学界相对一致的看法是,到2040-2050年,将出现达到人类水平的人工智能,也就是说,届时AI机器人将和人类一样,能在各行各业和人类有一样的工作能力。激进者认为,这一天会在2030年就到来;即便是不看好的人,认为到2070年人工智能肯定已经到达人类水平。而一旦到达人类水平,AI机器人会自我学习,将迅速超过人类。


这意味着什么?以80岁的寿命为标准,看到这篇文章的绝大多数读者在有生之年将看到AI机器人达到人类水平。


大多数人此生会用到AI机器人提供的各方面的服务,比如我们老的时候,陪伴我们的很可能是一个AI机器人,就如同电影《机器人与弗兰克》里面的一样。当我们怀念逝去的亲人时,我们可以把他在网络上的各种资料进行整理,让机器学习后,复制一个我们的“亲人”来陪伴我们,如英剧《黑镜》第二季里面的《马上回来》。


这两个例子,其实离我们不遥远。


(电影《机器人与弗兰克》剧照)


(英剧《黑镜》第二季《马上回来》;右边为AI机器人男友)


当然,这也很可能同时意味着:2018年6月刚参加完高考的学生,他们现在意气风发,代表着未来;但如果他们还按照上一代的方式方法接受教育,等他们50岁时,很可能会面临一次无奈的失业。一个好的迹象是,国内越来越多的大学,都开始关注“人工智能”;“人工智能”成为大学的专业,成为专门的学院,这个会越来越普遍。


(2018年5月,南开大学和天津大学同时揭牌“人工智能学院”)


尽管如此,我们依然对人工智能将要带来的巨变关注不够。


计算机科学家斯图尔特·罗素(Stuart Russell)曾用了一个很好的例子来试图说服大众提升对人工智能的紧迫感。假设外星人向地球发了一段话:地球人,我们将在50年后到达地球,请你们做好准备。如果是这样的情况,全人类都会很有紧迫感,去积极应对。就如科幻小说《三体》里面所描述的,三体人向地球进发,倒逼地球人快速发展科技。


但是,同样是50年后,AI机器人大概率会远远超过人类时,普通大众的反应却很冷淡,仿佛跟自己无关一样。其逻辑是:AI机器人是由人类所创造,会听人类的话。但是,AI机器人的发展,到了一定阶段,就大概率会失控。AI机器人即便不针对人类,只要它们开始按照自己的使命行动时,人类就有可能被动成为受害者;就如同人类不针对小动物,但我们一旦要造房子,就很少能顾及到小动物们的生死了。

“为了保障人工智能的安全可控,要对其具体的‘算法’设立专家审查评估委员会。这一委员会可能包括技术专家、网络安全专家、管理专家等,对其算法和管理方面进行审查,因为可能存在其‘算法’被一些居心叵测的人所篡改,造成不良的影响。此外,还涉及到人工智能是否符合伦理道德的要求。”刘德良说。

去年7月,国务院发布了《新一代人工智能发展规划》,其中提到,到2025年,要初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。

得益于机器学习技术的进步,人工智能在不断发展,并给许多产业带来了革命性的变化,Francesca Rossi告诉记者,机器在学习过程中的确会涉及到伦理道德问题。

在她看来,机器在伦理道德上有时会更具优势,因为人类在决策过程中会存在偏差。

不过,Francesca Rossi也坦言,当人工智能碰到伦理道德,存在三方面的问题:

第一,人类的道德标准是难以量化的;

第二,道德在人类社会属于常识,但却很难用机器能够理解的语言去说明,也就是说机器有时并不能理解一些道德标准;

第三,如何在人和系统之间建立信任机制。

“现阶段,机器学习是人工智能系统不断完善的主要驱动力。但是,机器学习的局限性之一是,其结果大多是以‘黑箱’的形式存在,即人们只能‘知其然’,却‘不知其所以然’,这是引发人工智能法律、伦理等问题的重要原因之一。

以自动驾驶为例,一旦发生事故,很难认定谁应当为此负责。也正因为如此,人工智能伦理问题的解决与技术的发展密切相关,可解释、可说明性是目前人工智能系统亟待解决的问题。”

也有业内人士担忧,人工智能全面超越人类智能并出现自我意识是危险的,不过这是远虑;但其不可解释性会带来“近忧”,如将深度学习应用于军事决策,万一系统出现原则性决策失误怎么办?

4月16日,英国议会发布报告说,在发展和应用人工智能过程中,有必要把伦理道德放在核心位置,以确保这项技术更好地造福人类。

报告提出,应确立一个适用于不同领域的“人工智能准则”,其中主要包括五个方面:

  • 人工智能应为人类共同利益服务;

  • 人工智能应遵循可理解性和公平性原则;

  • 人工智能不应用于削弱个人、家庭乃至社区的数据权利或隐私;

  • 所有公民都应有权利接受相关教育,以便能在精神、情感和经济上适应人工智能发展;

  • 人工智能绝不应被赋予任何伤害、毁灭或欺骗人类的自主能力。

我国的人工智能技术可谓与世界发达国家同步,但伦理和法律研究则严重滞后,这种“缺位”会制约未来的发展。人机关系中,智能机器与人类的价值观和规范体系必须一致。如何将人类的价值观和规范嵌入人工智能系统,赋予AI以人性的光辉,成为当前所面临最现实的挑战。


微信扫一扫
分享到朋友圈