科技

如果能赋予AI人性的光辉 人类世界将会怎样

字号+作者:新浪科技综合 来源:新浪科技 2018-05-17 19:06 我要评论() 收藏成功收藏本文

'...

  摘要:人类会不会被毁灭?

  原标题:如果能赋予AI人性的光辉

  来源:IT时报

  作者:章蔚玮 潘少颖

  公元2035年,是人与机器人和谐相处的社会。社会是需要规则的,犹如在人类社会中,法律对人类行为的约束以及既定的道德规范对人类行为的指引,在机器人的世界里,也有着“机器人三定律”等“法规”,有了这些法则、定律,科幻小说家阿西莫夫笔下的机器人不再是“欺师灭祖”“犯上作乱”的反面角色,而是人类忠实的奴仆和朋友。那个时代,有不会造成拥堵的无人驾驶汽车、在家可享受的未来医疗、与人类实时互动的智能家居、沉浸式体验的历史事件甚至是与人工智能的爱情……

  但是,自人工智能诞生以来,“人类会不会被毁灭”“如果人类放手不管,不考虑道德伦理问题,计算机系统的演化会不会让我们懊悔不已”等这样的问题总是让我们更加审慎地对待人工智能的发展。犹如电影《我,机器人》中的场景——机器人竟然具备了自我进化的能力,他们对“三大定律”有了自己的理解,他们随时会转化成整个人类的“机械公敌”。由此,一场制造者和被制造者之间的战争拉开序幕。

  对于人工智能是否会毁灭人类,有人认为重要的不在技术,而是规则。在人工智能这股不可逆的潮流中,前有阿西莫夫著名的机器人学三大定律,后有国际人工智能界正在日益重视的伦理与法律问题,如IEEE全球人工智能与伦理倡议、阿西洛马人工智能23条伦理原则相继出现,显而易见,人类渴望着科技的进步,但又恐惧科技的进步。在我们想象并践行着人工智能如何改善生活的时候,也在考虑人工智能如何面对伦理道德问题。

  AI的决策一定准确吗?

  它的数据或带偏见性

  一辆正在行驶的无人驾驶汽车,因为某些原因导致无法刹车,行驶前方是五名无辜路人,假如行驶方向不变,五名路人将产生生命危险。同时,路边有一片空地,有一名路人正在散步,如果汽车改道,那么只有这一名路人会面临生命危险,这时,无人驾驶汽车的人工智能系统该做出如何选择?

  还是这辆正在行驶的无人驾驶汽车,由于数据信息高度互通,它通过人工智能系统得知两个方向的六名路人身份(比如:罪犯、教师、医生、工程师等)或者他们之间被记录下的冲突。此时,这辆无人驾驶汽车该做出怎样的选择,是否会根据各类资料来对他们之间的联系做出“道德”评判?

  ……

  在人工智能发展的现阶段,最受人关注的场景是无人驾驶。上述场景在现实生活中发生的概率可能不高,但因无人驾驶而生的几场交通事故却不得不提醒人类:AI并非那么靠谱。比如,今年3月18日,Uber发生了一起无人驾驶汽车致死事故,真相是这辆车的传感器已经探测到了一位正在横穿马路的行人,但自动驾驶软件没有在当下采取避让措施,最终酿成悲剧。

  这起事故从表面看体现的是技术问题,Uber无人车检测到了行人,但选择不避让。实际上,当把判断权转移给计算机系统,就会牵涉到道德和伦理困境。

  美国《Science》杂志此前做过一个无人驾驶汽车道德困境的社会调查,结果显示,受访者认为,无人驾驶汽车车主应该选择最小化对他人的伤害,即使会致使自己受伤。但当问及会选择购买“车主保护优先”还是“行人保护优先”的无人驾驶汽车,受访者更倾向于购买“车主保护优先”的无人驾驶汽车。

  2017年8月,德国交通运输与数字基础建设部下属的道德委员会公布了一套被称为世界上首部的自动驾驶道德准则,或许可以作为这个问题的参考。这套由科学家和法律专家共同提出的15条自驾系统的驾驶决策道德准则的核心原则是:生命应该始终优先于财产或动物。其中明确,保护人类生命一定是首要任务,在事故无可避免的情况下,人的生命要比其他动物、建物都还重要。也就是说,无人驾驶汽车系统在必要时会对人类和动物的生命价值进行量化比较,以便于无人驾驶汽车在应对将要发生的事故时做出恰当的反应。

  但是,规范中也提到,自驾系统不得以年龄、性别、种族、是否残疾等作为判断条件,对于自动驾驶系统来说,选择难度似乎更大了。

  在一般人看来,无人驾驶汽车上的AI系统中的数据是公平的、可解释的、没有种族、性别以及意识形态上的偏见。但IBM研究中心研究员Francesca Rossi告诉《IT时报》记者,大多数人工智能系统都是有偏见的。

  2015年,谷歌自动驾驶负责人曾表示,危机情况下,谷歌无法决定谁是更好的人,但会努力保护最脆弱的人。

  “IBM开发了一种可以减少存在于训练数据集中偏见的方法,以便于让之后使用该数据集进行训练的AI算法尽可能保持公平。在未来5年,这些偏见将被驯服和消除。” Francesca Rossi表示。

  AI是“神一样的存在”吗?

  有可能成“神”,但会让人类尴尬

  一位隐居在山里的疯狂科学家秘密地进行着一项人工智能的实验,他邀请了一位程序员共同完成这项图灵测试中“人”的角色——如果人不再意识到是在与一台计算机进行交互,意味着机器拥有了自我意识,人类历史也将由此被改写,“神”将由此诞生。

  这是电影《机械姬》的开场情节,在这个故事中,究竟是创造出超级人工智能的天才科学家是神?还是超级人工智能是神?

  在瑞士阿尔卑斯卢加诺的一个实验室里,德国计算机科学家尤尔根·施米德胡贝的公司Nnaisense在开发可像婴儿那样运作的系统,他们为那些“系统”设置小实验,让它们理解这个世界是如何运作的。他认为,这会是未来“真正的AI”。唯一的问题在于,它们进展过于缓慢——目前只有10亿神经连接,人类大脑皮层的神经连接数量约为100万亿。

  在世界人工智能领域,施米德胡贝是目前世界上唯一可能被称为AI机器人之父的科学家,他的工作是让机器人变得更有自主意识。他在接受媒体采访时表示,现在的趋势是,计算机每5年加快十倍,按照这个速度,只需25年,就能开发出可媲美人类大脑的递归神经网络。“我们距离实现动物级别的智能并不遥远,比如乌鸦或者卷尾猴属。这样,机器智能超过人类智能似乎将会在2050年发生。”

  如同电影中那位创造了超级人工智能的科学家对机器人“自我觉醒”的热切期待,施米德胡贝同样不热衷“机器人的存在主要是为人类服务”的说法,他更倾向于机器人会成为“神”。“到2050年,我们将会迎来比我们更加智能的AI,到那时候执着于研究人类的生物圈将会变得没有意义。AI会把历史推向下一个阶段,向有充裕资源的地方进发。几百年后,它们将会在银河系建立殖民地。”在施米德胡贝看来,未来拥有人类智能甚至超过人工智能的抗热机器人将能够更接近于太阳能,它们最终将会在银河系的小行星带建立殖民地。

  施米德胡贝的说法一直备受争议,尤其是来自神经系统学的科学家就对此表示质疑,认为不应该开发让机器人有自我意识的算法。

  “AI机器人是否应该具有自我意识”一直是国外科学家积极关注的话题,畅销书《我们最后的发明:人工智能与人类时代的终结》作者James Barrat曾进行过一次独立调查,他问受访者“超级人工智能(拥有自我意识)哪一年会实现”,选项有2030年、2050年、2100年和永远不会实现,超过三分之二的受访者认为超级人工智能会在2050年实现,只有2%的参与者认为超级人工智能永远不会实现。

  让人类倍感不安的隐患是,一旦人工智能完成向超级人工智能的进化后,人类世界将会发生怎样的改变?

  超级AI可怕吗?

  远虑尚“远”,近忧在即

  在《机械姬》中,最终,那台名为eva 的超级人工智能机器人骗过了人类,通过了图灵测试,并将长期禁锢它于幽暗实验室的“父亲”——科学家杀害,并抛下了那个一直被她利用的程序员”远走高飞”。在她奔向蓝天白云时,她发现那是她一直向往的自由。在那之后,世界上不会有人知道她是一个通过图灵测试的超级AI机器人。

  “如果我没有通过你的测试,会有什么发生在我身上?”“有人会对你进行测试,然后因为你的表现不尽如人意而把你关掉,或者拆掉吗?”在电影中,eva一直在试图探索自己与人类的关系。最终,对试图禁锢她的人类进行了毁灭性的伤害。

  对于这样的结局,施米德胡贝不以为然,他觉得到那个时候,人类将不适合做超级人工智能的奴隶。“对我们而言,最好的保护是让它们对我们缺乏兴趣,因为大多数物种最大的敌人都是自己。它们对我们的关注,将会如同我们对蚂蚁的关注一样。”

  显然,施米德胡贝并没有对超级人工智能的未来与人类的关系给出一个明确的判断。相反,一些更为激进的科学家提出“要把AI关进笼子里”。

  “否则,机器将接管一切,它们会决定如何处理我们!”美国路易斯威尔大学工程学院计算机工程和计算机科学系教授、网络安全实验室创始人兼主管亚姆·博尔斯基提出“把AI装进盒子里”的方法论,“把他们放在一个可控的环境里,比如当你研究一种电脑病毒时,可以把它放在孤立的系统中,这个系统无法接入互联网,所以,你可以在安全的环境中了解它的行为,控制输入和输出。”

  自从AI诞生以来,对于人类威胁论就不绝于耳。其中最主流的观点就是,AI不仅仅是一个“现金工具”,它实际上是个独立的个体,可以做出自己的决定。此时,就与有意识但无“道德感”的动物相似,就像人类总是无法确保野生动物不会对人类造成安全威胁。于是,更为激进的科学家就提出了要将AI拴起来,关进笼子里,并且努力让它变得安全、有益。

  但这样的隐患却依然无法完全杜绝,人类无法控制决策的各个方面,人工智能也可能会以多种方式伤害人类。目前,在全球范围内,关于AI威胁论主要来自以下几个方面:一是设计上的错误,就像任何软件一样,你会遇到电脑错误,你的价值观与人类价值观不一致;二是有目的的、设计带有恶意的AI,有些人想要伤害别人,他们会故意设计出一套智能系统来执行摧毁和杀戮任务;三是AI发展超出人类预期,人类将无法理解它在做什么,甚至无法与它进行有意义的交流。

  在AI威胁论面前,反对派科学家明确反对赋予机器人平等的权利,比如人权和投票权。亚姆·博尔斯基认为,机器人几乎可以无限“繁殖”。“他们可以拥有一万亿份任何软件的拷贝,几乎即时就可以获得,如果每个软件都有投票权,那基本上就意味着人类将失去任何权利,意味着我们自己放弃了人权。因此,任何提议赋予机器人这种公民权利的人,就是在反对人权。”

  人类准备好了吗?

  用“立法”来约束

  有人类学家提出,人类的核心目标是延续自己的基因,在我们尽全力实现目标时,道德会在一些领导产生作用,比如“是否会伤害他人”。这也正是未来超级人工智能与人类最大的不同所在,一个不具有道德性的超级人工智能会努力实现它原本设定的目标, 在这个过程中,将对人类生存安全产生危险。

  观点更为中立的科学家提出要为人工智能“立法”。以德国交通运输与数字基础建设部下属的道德委员会公布的一套被称为世界上首部的自动驾驶道德准则为例,这是目前全球范围内唯一一个被列为行政条款的与AI相关规范,但在具体实施过程中依然存在大量技术难题,比如如何让无人驾驶的AI系统能准确了解条款中的含义。在腾讯研究院高级研究员曹建峰看来,大部分国家对人工智能相关立法的规范依然停留在讨论阶段,因为受到太多不可预测因素的存在,包括AI语言的沟通。

  科学家口中的AI宪法会是什么?它应当是基于现实世界的一个模型,以约束人工智能在各种不同条件下做出符合人类伦理的决定为目标。

  语言编程Wolfram Mathematica创始人、总裁Stephen wolfram曾提出“如何把法律与计算联系起来”的疑问,“发明一种合法代码,不同于今天的法律和合同上的自然语言?”“为AI设计一种通用语言的想法,用一种符号化的语言,把法律表示可计算的形式,并且告诉AI我们想做什么?”在Stephen wolfram看来,仅仅依靠语言的改变来约束AI,在现实中并不可行。当下对人类最大的挑战不是设定法律,而是寻找出某种适合的方式来描述这些适用于AI的法律或者规范。AI计算在某种程度上是狂野不可控的东西,因此很难存在一个简单的原理,而是通过搭建更为复杂的框架来囊括这样的法则。

  “我们当下更多的是关注如何约束AI开发者。”在曹建峰看来,与国外前沿研究AI不同,国内更关注当下,比如在个人隐私保护以及性别歧视等伦理角度出发。

  亚太人工智能法律研究院院长刘德良曾表示,人工智能立法总的思路要往“安全可控”的方向发展,这也应是最高指导原则,“人工智能在各个领域都会有具体的应用,比如在教育、医疗、家政服务、道路交通等领域,涉及的问题也不尽相同。为了达到安全可控,应该首先在行业内出台标准,也就是人工智能产品在上市和投入市场使用之前,必须符合一些法定的标准,但是‘标准的空缺’应该弥补。而同样的,不同的领域所涉及的安全标准也不一样。所以在产业发展时,对人工智能的安全标准要有强制性的规定,只有符合这个标准才能让其上市和投入使用,这是保障其安全可控的基本要点。”

  人机和谐相处的“秘籍”是什么?

  AI与人类的价值观一致

  除了行业标准以外,人工智能最主要的问题是“算法”。“为了保障人工智能的安全可控,要对其具体的‘算法’设立专家审查评估委员会。这一委员会可能包括技术专家、网络安全专家、管理专家等,对其算法和管理方面进行审查,因为可能存在其‘算法’被一些居心叵测的人所篡改,造成不良的影响。此外,还涉及到人工智能是否符合伦理道德的要求。”刘德良说。

  去年7月,国务院发布了《新一代人工智能发展规划》,其中提到,到2025年,要初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。

  得益于机器学习技术的进步,人工智能在不断发展,并给许多产业带来了革命性的变化,Francesca Rossi告诉记者,机器在学习过程中的确会涉及到伦理道德问题。在她看来,机器在伦理道德上有时会更具优势,因为人类在决策过程中会存在偏差。不过,Francesca Rossi也坦言,当人工智能碰到伦理道德,存在三方面的问题:第一,人类的道德标准是难以量化的;第二,道德在人类社会属于常识,但却很难用机器能够理解的语言去说明,也就是说机器有时并不能理解一些道德标准;第三,如何在人和系统之间建立信任机制。“现阶段,机器学习是人工智能系统不断完善的主要驱动力。但是,机器学习的局限性之一是,其结果大多是以‘黑箱’的形式存在,即人们只能‘知其然’,却‘不知其所以然’,这是引发人工智能法律、伦理等问题的重要原因之一。以自动驾驶为例,一旦发生事故,很难认定谁应当为此负责。也正因为如此,人工智能伦理问题的解决与技术的发展密切相关,可解释、可说明性是目前人工智能系统亟待解决的问题。”

  也有业内人士担忧,人工智能全面超越人类智能并出现自我意识是危险的,不过这是远虑;但其不可解释性会带来“近忧”,如将深度学习应用于军事决策,万一系统出现原则性决策失误怎么办?

  4月16日,英国议会发布报告说,在发展和应用人工智能过程中,有必要把伦理道德放在核心位置,以确保这项技术更好地造福人类。报告提出,应确立一个适用于不同领域的“人工智能准则”,其中主要包括五个方面:人工智能应为人类共同利益服务;人工智能应遵循可理解性和公平性原则;人工智能不应用于削弱个人、家庭乃至社区的数据权利或隐私;所有公民都应有权利接受相关教育,以便能在精神、情感和经济上适应人工智能发展;人工智能绝不应被赋予任何伤害、毁灭或欺骗人类的自主能力。

  我国的人工智能技术可谓与世界发达国家同步,但伦理和法律研究则严重滞后,这种“缺位”会制约未来的发展。人机关系中,智能机器与人类的价值观和规范体系必须一致。如何将人类的价值观和规范嵌入人工智能系统,赋予AI以人性的光辉,成为当前所面临最现实的挑战。

1.UU头条遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.UU头条的原创文章,请转载时务必注明文章作者和"来源:UU头条",不尊重原创的行为砍柴网或将追究责任;3.作者投稿可能会经UU头条编辑修改或补充。