IT时报 -V5 特别策划-
5特别策划
  • ·超级AI可怕吗?远虑尚“远”,近忧在即

超级AI可怕吗?远虑尚“远”,近忧在即

  

上接第4版
  如同电影中那位创造了超级人工智能的科学家对机器人“自我觉醒”的热切期待,施米德胡贝同样不热衷“机器人的存在主要是为人类服务”的说法,他更倾向于机器人会成为“神”。“到2050年,我们将会迎来比我们更加智能的AI,到那时候执着于研究人类的生物圈将会变得没有意义。AI会把历史推向下一个阶段,向有充裕资源的地方进发。几百年后,它们将会在银河系建立殖民地。”在施米德胡贝看来,未来拥有人类智能甚至超过人工智能的抗热机器人将能够更接近于太阳能,它们最终将会在银河系的小行星带建立殖民地。
  施米德胡贝的说法一直备受争议,尤其是来自神经系统学的科学家就对此表示质疑,认为不应该开发让机器人有自我意识的算法。“AI机器人是否应该具有自我意识”一直是国外科学家积极关注的话题,畅销书《我们最后的发明:人工智能与人类时代的终结》作者James Barrat曾进行过一次独立调查,他问受访者“超级人工智能(拥有自我意识)哪一年会实现”,选项有2030年、2050年、2100年和永远不会实现,超过三分之二的受访者认为超级人工智能会在2050年实现,只有2%的参与者认为超级人工智能永远不会实现。
  让人类倍感不安的隐患是,一旦人工智能完成向超级人工智能的进化后,人类世界将会发生怎样的改变?
  在《机械姬》中,最终,那台名为eva的超级人工智能机器人骗过了人类,通过了图灵测试,并将长期禁锢它于幽暗实验室的“父亲”——科学家杀害,并抛下了那个一直被她利用的程序员”远走高飞”。在她奔向蓝天白云时,她发现那是她一直向往的自由。在那之后,世界上不会有人知道她是一个通过图灵测试的超级AI机器人。
  “如果我没有通过你的测试,会有什么发生在我身上?”“有人会对你进行测试,然后因为你的表现不尽如人意而把你关掉,或者拆掉吗?”在电影中,eva一直在试图探索自己与人类的关系。最终,对试图禁锢她的人类进行了毁灭性的伤害。
  对于这样的结局,施米德胡贝不以为然,他觉得到那个时候,人类将不适合做超级人工智能的奴隶。“对我们而言,最好的保护是让它们对我们缺乏兴趣,因为大多数物种最大的敌人都是自己。它们对我们的关注,将会如同我们对蚂蚁的关注一样。”
  显然,施米德胡贝并没有对超级人工智能的未来与人类的关系给出一个明确的判断。相反,一些更为激进的科学家提出“要把AI关进笼子里”。
  “否则,机器将接管一切,它们会决定如何处理我们!”美国路易斯威尔大学工程学院计算机工程和计算机科学系教授、网络安全实验室创始人兼主管亚姆·博尔斯基提出“把AI装进盒子里”的方法论,“把他们放在一个可控的环境里,比如当你研究一种电脑病毒时,可以把它放在孤立的系统中,这个系统无法接入互联网,所以,你可以在安全的环境中了解它的行为,控制输入和输出。”
  自从AI诞生以来,对于人类威胁论就不绝于耳。其中最主流的观点就是,AI不仅仅是一个“现金工具”,它实际上是个独立的个体,可以做出自己的决定。此时,就与有意识但无“道德感”的动物相似,就像人类总是无法确保野生动物不会对人类造成安全威胁。于是,更为激进的科学家就提出了要将AI拴起来,关进笼子里,并且努力让它变得安全、有益。
  但这样的隐患却依然无法完全杜绝,人类无法控制决策的各个方面,人工智能也可能会以多种方式伤害人类。目前,在全球范围内,关于AI威胁论主要来自以下几个方面:一是设计上的错误,就像任何软件一样,你会遇到电脑错误,你的价值观与人类价值观不一致;二是有目的的、设计带有恶意的AI,有些人想要伤害别人,他们会故意设计出一套智能系统来执行摧毁和杀戮任务;三是AI发展超出人类预期,人类将无法理解它在做什么,甚至无法与它进行有意义的交流。
  在AI威胁论面前,反对派科学家明确反对赋予机器人平等的权利,比如人权和投票权。亚姆·博尔斯基认为,机器人几乎可以无限“繁殖”。“他们可以拥有一万亿份任何软件的拷贝,几乎即时就可以获得,如果每个软件都有投票权,那基本上就意味着人类将失去任何权利,意味着我们自己放弃了人权。因此,任何提议赋予机器人这种公民权利的人,就是在反对人权。”人类准备好了吗?用“立法”来约束
  有人类学家提出,人类的核心目标是延续自己的基因,在我们尽全力实现目标时,道德会在一些领导产生作用,比如“是否会伤害他人”。这也正是未来超级人工智能与人类最大的不同所在,一个不具有道德性的超级人工智能会努力实现它原本设定的目标,在这个过程中,将对人类生存安全产生危险。
  观点更为中立的科学家提出要为人工智能“立法”。以德国交通运输与数字基础建设部下属的道德委员会公布的一套被称为世界上首部的自动驾驶道德准则为例,这是目前全球范围内唯一一个被列为行政条款的与AI相关规范,但在具体实施过程中依然存在大量技术难题,比如如何让无人驾驶的AI系统能准确了解条款中的含义。在腾讯研究院高级研究员曹建峰看来,大部分国家对人工智能相关立法的规范依然停留在讨论阶段,因为受到太多不可预测因素的存在,包括AI语言的沟通。
  科学家口中的AI宪法会是什么?它应当是基于现实世界的一个模型,以约束人工智能在各种不同条件下做出符合人类伦理的决定为目标。
  语言编程Wolfram Mathematica创始人、总裁Stephen wolfram曾提出“如何把法律与计算联系起来”的疑问,“发明一种合法代码,不同于今天的法律和合同上的自然语言?”“为AI设计一种通用语言的想法,用一种符号化的语言,把法律表示可计算的形式,并且告诉AI我们想做什么?”在Stephen wolfram看来,仅仅依靠语言的改变来约束AI,在现实中并不可行。当下对人类最大的挑战不是设定法律,而是寻找出某种适合的方式来描述这些适用于AI的法律或者规范。AI计算在某种程度上是狂野不可控的东西,因此很难存在一个简单的原理,而是通过搭建更为复杂的框架来囊括这样的法则。
  “我们当下更多的是关注如何约束AI开发者。”在曹建峰看来,与国外前沿研究AI不同,国内更关注当下,比如在个人隐私保护以及性别歧视等伦理角度出发。
  亚太人工智能法律研究院院长刘德良曾表示,人工智能立法总的思路要往“安全可控”的方向发展,这也应是最高指导原则,“人工智能在各个领域都会有具体的应用,比如在教育、医疗、家政服务、道路交通等领域,涉及的问题也不尽相同。为了达到安全可控,应该首先在行业内出台标准,也就是人工智能产品在上市和投入市场使用之前,必须符合一些法定的标准,但是‘标准的空缺’应该弥补。而同样的,不同的领域所涉及的安全标准也不一样。所以在产业发展时,对人工智能的安全标准要有强制性的规定,只有符合这个标准才能让其上市和投入使用,这是保障其安全可控的基本要点。”
人机和谐相处的“秘籍”是什么?AI与人类的价值观一致
  除了行业标准以外,人工智能最主要的问题是“算法”。“为了保障人工智能的安全可控,要对其具体的‘算法’设立专家审查评估委员会。这一委员会可能包括技术专家、网络安全专家、管理专家等,对其算法和管理方面进行审查,因为可能存在其‘算法’被一些居心叵测的人所篡改,造成不良的影响。此外,还涉及人工智能是否符合伦理道德的要求。”刘德良说。
  去年7月,国务院发布了《新一代人工智能发展规划》,其中提到,到2025年,要初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。
  得益于机器学习技术的进步,人工智能在不断发展,并给许多产业带来了革命性的变化,Francesca Rossi告诉记者,机器在学习过程中的确会涉及伦理道德问题。在她看来,机器在伦理道德上有时会更具优势,因为人类在决策过程中会存在偏差。不过,Francesca Rossi也坦言,当人工智能碰到伦理道德,存在三方面的问题:第一,人类的道德标准是难以量化的;第二,道德在人类社会属于常识,但却很难用机器能够理解的语言去说明,也就是说机器有时并不能理解一些道德标准;第三,如何在人和系统之间建立信任机制。“现阶段,机器学习是人工智能系统不断完善的主要驱动力。但是,机器学习的局限性之一是,其结果大多是以‘黑箱’的形式存在,即人们只能‘知其然’,却‘不知其所以然’,这是引发人工智能法律、伦理等问题的重要原因之一。以自动驾驶为例,一旦发生事故,很难认定谁应当为此负责。也正因为如此,人工智能伦理问题的解决与技术的发展密切相关,可解释、可说明性是目前人工智能系统亟待解决的问题。”
  也有业内人士担忧,人工智能全面超越人类智能并出现自我意识是危险的,不过这是远虑;但其不可解释性会带来“近忧”,如将深度学习应用于军事决策,万一系统出现原则性决策失误怎么办?
  4月16日,英国议会发布报告说,在发展和应用人工智能过程中,有必要把伦理道德放在核心位置,以确保这项技术更好地造福人类。报告提出,应确立一个适用于不同领域的“人工智能准则”,其中主要包括五个方面:人工智能应为人类共同利益服务;人工智能应遵循可理解性和公平性原则;人工智能不应用于削弱个人、家庭乃至社区的数据权利或隐私;所有公民都应有权利接受相关教育,以便能在精神、情感和经济上适应人工智能发展;人工智能绝不应被赋予任何伤害、毁灭或欺骗人类的自主能力。
  我国的人工智能技术可谓与世界发达国家同步,但伦理和法律研究则严重滞后,这种“缺位”会制约未来的发展。人机关系中,智能机器与人类的价值观和规范体系必须一致。如何将人类的价值观和规范嵌入人工智能系统,赋予AI以人性的光辉,成为当前所面临最现实的挑战。