(摘编自2018北京高考语文卷) 材料二 2018年5月,谷歌Duplex人工智能语音技术(部分)通过了“图灵测试”。这个消息进一步引发了人们对于人工智能的思考:当机器人越来越像人,我们应该怎样做? 在人工智能的开发过程中,设计者会遇到伦理问题的挑战。比如著名的“隧道问题”:一辆自动驾驶的汽车在通过黑暗的隧道时前方突然出现一个小孩,面对撞向隧道还是撞向行人这种进退维谷的突发情况,自动驾驶汽车会怎么做? 自动驾驶汽车依靠的是人工智能“大脑”,它会从以往案例数据库中选取一个与当前情景较相似的案例,然后根据所选案例来实施本次决策。当遇到完全陌生的情景时,汽车仍然会进行搜索,即在“大脑”中迅速搜索与当前场景相似度大于某个固定值的过往场景,形成与之对应的决断。如果计算机搜索出来的场景相似度小于那个值,自动驾驶汽车将随机选择一种方式处理。 那么,如果自动驾驶汽车伤害了人类,谁来负责呢?有的学者认为不能将人工智能体作为行为主体对待。因为“主体”概念有一系列限定,譬如具有反思能力、主观判断能力以及情感和价值目标设定等。人工智能不是严格意义上的“智能”,它所表现出来智能以及对人类社会道德行为规范的掌握和遵循,是基于大数据学习的结果,和人类主观意识有本质的不同。因此,人工智能体不可以作为社会责任的承担者。以上述自动驾驶汽车为例,究竟由人工智能开发者负责,还是由汽车公司负责甚至任何的第三方负责,或者各方在何种情形下如何分担责任,应当在相关人工智能的法律法规框架下通过制订商业合同进行约定。 人工智能在未来还可能产生的一个问题就是“奇点(singularity)”。所谓“奇点”就是指机器智能有朝一日超越人类智能,那时机器将能够进行自我编程而变得更加智能,它们也将持续设计更加先进的机器,直到将人类远远甩开。尽管研究者对“奇点”到来的时间和可能性还有争议,但是不管“奇点”时刻能否真的到来,在技术不断完善的过程中,我们都要小心被人工智能“异化”。在我们训练人工智能的同时,有可能也被人工智能“训练”了。我们的一举一动、生活爱好被人工智能塑造,人工智能在无形中暗暗决定了我们的思维方式,当我们还在为自己的自由意志而骄傲的时候,也许已不知不觉地沦为了数据的囚徒。 面对人工智能可能带来的种种冲击,上世纪50年代美国科幻小说家阿西莫夫提出的机器人三大定律,今天对我们依然有借鉴意义。这三大定律是:机器人不得伤害人,也不得见到人受伤害而袖手旁观;机器人应服从人的一切命令,但不得违反第一定律;机器人应保护自身安全,但不得违反第一,第二定律。归根结底,人是智能行为的总开关。人工智能的开发者应该始终把对社会负责的原则,放在对技术进步的渴望之上。人类完全可以做到未雨绸缪, 应对人工智能可能带来的威胁。 (取材于等人的文章)