5月23日,当今世界围棋第一人柯洁与计算机围棋程序“阿尔法狗”(Alpha Go)的第一场比赛结束,“阿尔法狗”以四分之一子优势赢得首场胜利。这场比赛双方耗时4小时17分37秒,其中柯洁用时2小时46分43秒,“阿尔法狗”用时1小时30分54秒。
除了围观和好奇,人类骨子里的不服输以及想要看看人工智能到底有多厉害的求胜欲促成了这一挑战。面对人类棋手注定完败于人工智能的结局,人类要做好的准备是全面迎接而非拒绝人工智能,努力去掌控而非臣服于人工智能。
接纳人工智能是今天社会发展、经济增长、人类演化的必然,更是人们生活的需求。其实,很多人每天离不开的智能手机就是低端人工智能的应用。更应当看到的现实是,人工智能的发展极具竞争性,未来谁在人工智能的研发和应用中落后,谁就会被淘汰。
2016年3月15日,“阿尔法狗”最终以4比1战胜韩国名将李世石。两个月之后,美国白宫就推动成立了机器学习与人工智能分委会,由其主持和协调撰写了三个关于人工智能发展的报告:《为人工智能的未来做好准备》《国家人工智能研究和发展战略计划》和《人工智能、自动化与经济报告》。欧盟、英国和日本等也相继发布了研发和应用人工智能的报告。显然,中国应当参与到这种战略布局当中,这种布局不仅是国家和民族的需要,而且也是赢得未来的利器。
可以看出,尽管美国对人工智能的布局着眼于产业自动化和提升经济,但人工智能的发展和应用早就向各行各业全面渗透,春江水暖的领域主要体现在医疗、制造业、交通、金融、生态环境监测、刑事司法调查等。人工智能并不是只会下棋,还会在不同的领域帮助人,甚至超过人。
然而,无论人工智能有多少个理由可能战胜人,它们首先是在人类为其布置和引导的范围内进行学习,并且它们始终无法获得人的理性分析能力、运用逻辑思考的能力,以及具有情感交流和互动的能力。缺少了这些方面的能力,所谓“人工智能战胜人”就是无源之水,无根之木。
此外,预见性或先见之明也是人类胜过地球上所有生物以及人工智能的地方。凭借未雨绸缪的超前性,人工智能受控于人的装置早就在研发之中。美国麻省理工学院的詹森·多夫曼研究团队已经研发了一个反馈系统,能够让人类操作者仅通过大脑信号就能实时纠正机器人的错误,并做出正确的选择。这其实也是人工智能的内容和应用,即实现控制人工智能的智能。
另一方面,由人掌控人工智能也意味着必须以人类社会的法律与伦理来制约人工智能。人工智能的发展和应用是如此广泛和深远,不可避免地会触及人类社会各个方面的法律规范、制度和伦理。这意味着,如果不改进和创造新的法律和规范,就无法让人工智能融入人类生活和生产,从而无法让人工智能发挥应有的巨大作用。我们必须针对人工智能制定新的法律、形成新的伦理规范,以避免人工智能陷人类于危险境地。
例如,人工智能驾驶的汽车上路,必须改变1968年联合国制定的汽车控制者必须是人而非电脑的道路交通公约。为此,美国于2016年2月改变了这一法律,允许无人驾驶汽车上路。这也表明,此后一系列和各个方面人工智能的应用都可能会改变现行的法律,或者需要制定新的法律。
与此相关的是,人工智能的应用涉及人和机器、人和动物、人和人之间的伦理时,如何规范人工智能也提上议事日程。尽管阿西莫夫在1941年就提出了机器人三定律,后来发展为四定律,但对于今天飞速发展的人工智能而言,这样的法则还是太简单。于是,美国麻省理工学院的学生埃德蒙德·阿瓦达和索罕·迪索扎2016年共同创建了一家名为“道德机器”的网站,试图解决人工智能应用的某些伦理问题,体现为三种情况:一是车辆直行,导致4只狗1只猫死亡,还是撞向右侧路障,导致5位乘客死亡?二是汽车直行,导致3位违章行人死亡,还是撞向右侧路障,导致5位遵守交规行人死亡?三是汽车直行,导致5位违章行人死亡,还是撞向右侧路障,导致4位乘客死亡?
他们希望以这样的问题来收集人们对人工智能应用的伦理设计。这些问题很难得到两全其美的答案,但是,如果不解决,就将限制和阻碍人工智能的应用。仅凭伦理难题这一点,人工智能的应用就不会太顺畅,更不可能导致人工智能战胜人类。