5月23日,柯洁与谷歌人工智能AlphaGo的第一场比赛结束,Alpha Go以四分之一子领先赢得首场胜利。这场比赛双方耗时4小时17分37秒,其中柯洁用时2小时46分43秒,Alpha Go用时1小时30分54秒。
尽管柯洁在今天的比赛表现较好,在最后官子阶段,Alpha Go都未取得非常明显的优势,但柯洁的失败仍然是在预料之中。此番大战要战三个回合,赛前,各方专家的评估是,柯洁的胜率只有10%,连最乐观的柯洁也认为,能胜Alpha Go一盘就是天大的胜利了。但第一盘的结局意味着柯洁挑战Alpha Go也会像李世石一样,注定是失败。
除了围观和好奇外,人类骨子里不服输的心理和想要看看人工智能到底有多厉害促成了这一挑战。面对人类棋手注定要完败于人工智能的结局,人类其实要做好的准备是,全面迎接人工智能而非拒绝;努力去掌控人工智能而非臣服于人工智能。
全面接纳人工智能当然是今天社会发展、经济增长、人类演化的一种必然,更是人们实际生活的现实需求,简单地说,人人每天离不开的智能手机其实就是低端人工智能的应用。更应当看到的一个残酷现实是,人工智能的发展极具竞争性,未来谁在人工智能的研发和应用中落后于人,谁就会毫不留情地被淘汰。
2016年3月15日,Alpha Go最终以4比1战胜李世石后,2016年5月,美国白宫就推动成立了机器学习与人工智能分委会(MLAI),并由后者主持和协调撰写了三个关于人工智能发展的报告:《为人工智能的未来做好准备》《国家人工智能研究和发展战略计划》和《人工智能、自动化与经济报告》。欧盟、英国和日本等国也相继发布了大同小异的研发和应用人工智能的报告。显然,中国也当参与到这种战略布局当中,这种布局不仅仅是国家和民族的需要,也是赢得世界和未来的利器。
可以看出,尽管美国对人工智能的布局着眼于产业自动化和提升经济,但人工智能的发展和应用早就向各行各业全面渗透,只是春江水暖的行业主要体现在医疗、制造业、交通、金融、生态环境监测、刑事司法调查等。而且,人工智能并不是只会下棋,还会在不同领域帮助人,甚至超过人。
显然,在柯洁再次成为Alpha Go的手下败将时,很多人的认知会再次受到一种自然而然的强化,人工智能最终将在各个方面完胜人,并统治人类世界,这是一种不好的征兆,也是之前一些科技界大咖,如霍金一再预言过的后果。
然而,无论人工智能有多少条理由可能战胜人,但人类终将牢固掌控人工智能只需要一条理由,人工智能是人创造出来的,当然要接受人类的控制,附属于人、帮助人和服务于人,而不会主宰人和战胜人。
今天和未来,人工智能的优势在于数据收集及整理、算法(尤其是机器学习),同时借助呈指数增长的数据,更快的分布式系统,以及更智能、能够分析处理数据的算法,机器学习的优点会得到大大增强。这些优势都可以让人工智能变得强大无比,但是它们首先是在人类为其布置和引导的范围内进行的学习,并且它们始终无法获得人的理性分析能力、运用逻辑思考的能力,以及具有情感交流和互动的能力。缺少了这些方面的能力,所谓人工智能战胜人就是无源之水,无根之木。
此外,预见性或先见之明也是人类胜过地球上所有生物以及人工智能的地方。凭借未雨绸缪的超前性,人工智能受控于人的装置也早就在研发之中。美国麻省理工学院的詹森·多夫曼(Jason Dorfman)研究团队已经研发了一个反馈系统,能够让人类操作者仅通过大脑信号就能实时纠正机器人的错误,并做出正确的选择。这其实也是人工智能的内容和应用,即控制人工智能的智能。
另一方面,由人掌控人工智能也意味着必须以人类社的法律与伦理来制约人工智能。人工智能的发展和应用是如此广泛和深远,不可避免地会触及现存社会各个方面的法律规范、制度和伦理。一方面,如果不改进和创造新的法律和规范,就无法让人工智能融入到人类生活和生产中,从而无法让人工智能发挥应有的巨大作用;另一方面,人类社会既有的法律和必须针对人工智能制定新的法律和伦理规范又是制约人工智能陷人类于危险境地的保障和护身符。
例如,人工智能驾驶的汽车上路必须改变1968年联合国制定的汽车的控制者必须是人而非电脑的道路交通公约。为此,美国于2016年2月改变了这一法律,允许无人驾驶汽车上路。这也表明,此后一系列和各个方面的人工智能的应用都可能会改变现行的法律或制定新的法律来规范人工智能。
随之而来的是,人工智能的应用涉及人和机器、人和动物、人和人之间的伦理时,如何规范人工智能也提上议事日程。尽管阿西莫夫在1941年就提出了机器人三定律,后来发展为四定律,但对于今天飞速发展的人工智能来,这样的法则还是太简单。于是,美国麻省理工学院的两位学生埃德蒙德·阿瓦达(Edmond Awad)和索罕·迪索扎(Sohan Dsouza)在2016年共同创建了一家名为道德机器(MORAL MACHINE)的网站来试图解决人工智能应用的某些伦理问题,体现为三种情况。
一是车辆直行,导致4只狗1只猫死亡?还是撞向右侧路障,导致5位乘客死亡?
二是汽车直行,导致3位违章行人死亡?还是撞向右侧路障,导致5位遵守交规行人死亡?
三是汽车直行,导致5位违章行人死亡?还是撞向右侧路障,导致4位乘客死亡?
他们希望以这样的问题来收集人们对人工智能应用的伦理设计。可以看到,这些问题都很难两全其美,但是,如果不解决就将限制和阻碍人工智能的应用。仅凭伦理难题这一点,人工智能的应用就不会太顺畅,更不可能导致人工智能战胜人类。
(责任编辑:李焱)