如果人工智能会伤害人类,该不该停止发展?

2017年08月02日 08:29   来源:中国网   张田勘

  张田勘 学者

  掌管着四家知名公司(特斯拉、民用航天火箭制造商SpaceX、隧道交通公司The Boring Company和家用太阳能板公司Solar City)的伊隆?马斯克 (Elon Musk)与Facebook的创办人兼CEO马克?扎克伯格(Mark Zuckerberg)怼起来了。

  马斯克称,人工智能是对人类社会的“根本性存在威胁”,并且在2015年就与霍金一道预言,人工智能军备竞赛已经开打。但是,扎克伯格称,“人们总说人工智能在未来会伤害人类。的确,科技可以被好人也可以被坏人利用,人们需要对怎样打造和怎样使用科技非常小心。但有些人以此主张减慢人工智能的研究开发,我觉得这种言论真的非常可疑,我真的无法理解。”

  马克斯与扎克伯格的互怼并非全是针锋相对,其中至少还包含了一些相同的东西。例如,两人都认为,技术的应用有好也有坏,关键看人们如何对待。但是,这种相似还是有区别的,至少包含两个层次。一是,即便二人认为技术具有双面作用(双刃剑),在扎克伯格看来,技术的负面作用是次要的,但在马斯克看来,技术的负面作用却是致命的。所以,二者的相似并非是半斤八两,而是差异较大。

  第二个层次的差异则有些巨大。扎克伯格认为,即便人工智能可能有害于人类,也不能减慢对其研发和利用。但马斯克则认为,由于人工智能对人类有极大危害,从现在起就需要对人工智能的研发和利用保持警惕。

  这种差异可以用英国技术哲学家大卫?科林格里奇在其《技术的社会控制》一书的一种观点来解释和引申,而这个观点其实是被很多科学哲学研究人员所认同的,即技术的控制困境或科林格里奇困境。一项技术的社会后果不能在技术生命的早期被预料到。然而,当不希望的后果被发现时,技术却往往已经成为整个经济和社会结构的一部分,以至于对它的控制十分困难。

  技术的控制困境可以用更为通俗的例子来解释,当一件东西或一项技术在被创造出来时就像一个在火塘边烤出的香喷喷的山芋一样,当有人想要更好地食用和品尝其美味而将其剥掉外衣时,山芋掉入火塘内(无论是不小心,还是因为烫手抑或其他原因,山芋都必然会掉入火塘),全身沾满灰烬,拍也不是吹也不是。可以想到的解决办法要么忍痛丢弃,要么是用刀切掉四周。后者尽管还会让山芋有一点灰,却还可食用,只是可食用的份额已经减少。也就是说,如果陷入技术控制的困境,要么是这项技术被弃用,要么是改良。

  现在,出于担心,马斯克提出要对人工智能预以特别警惕,就是考虑到,需要提前对人工智能置入可控的程序或开关,以便在出现危机时能够管控技术的危害。但是,扎克伯克却是另一种想法,人工智能当然像其他技术一样,可能对人类有害,但不能因噎废食,而是要尽快发展,出了问题,再来考虑解决的办法。所以,马斯克可以归为预防论者,而扎克伯格属于事后解决者。

  这两种看问题和解决问题的方式当然各有长短。预防论者是未雨绸缪,但是难以准确地发现和解决问题;事后解决者是不拿未来的问题来束缚自己,前进的步子会走得很大和很快,然而一旦出现问题,要付出的解决问题的成本就会很大。

  如同人类文明的发展一样,人类科技的发展也基本上是出了问题再来解决问题,而不是提前预计有什么问题,像诸葛亮那样提前预知并想到解决问题的锦囊妙计的先知是少而又少。所以,二人的争议似乎无解,只能是对人工智能的发展走一步说一步。因此,人工智能的发展就必然会遇到一些可能遇到的难题和危机。具体可以表现为几个方面。

  一是人工智能是人类智慧的化身,人类所有的优点和缺陷人工智能都会有,如何克服人工智能所必然会沾染的人的缺陷,如暴力、谎言、歧视、偏激、非理性等,需要有前瞻。

  二是,人工智能的不可预见性。不可预见性不只是人工智能所需要关注的,而是所有科技发展和项目都存在的,是祸兮福所倚,福兮祸所伏的必然体现。正如今天的基因修饰或基因剪刀,利用这样的技术当然可以修改生命、治疗疾病,但也可以创造新的生命甚至超人,也可以制造新的疾病。

  三是,人工智能的一些特点具有时空累积性,到一定时候才会显露出来。正如在种植抗草甘膦(抗农达)的转基因大豆田间,可以大量使用草甘膦除草剂以杀灭杂草,但不会杀死抗草甘膦转基因大豆。这种方法固然减轻了农民的劳累程度,但时间一长,使用草甘膦除草剂的地方反而引发了大量耐草甘膦除草剂的杂草,并四处蔓延,同时草甘膦也成为一种致癌物。

  当然,最重要的是,凭借人类的经验和想象,人们最大的担心和最不愿看到的是,师从人类的人工智能极有可能青出于蓝而胜于蓝,并且还可能有人类的情感,届时,人类将何去何从!

  人工智能可能出现的危机不止是这些,但是不必因为有危害就停止发展,而是要慎重发展。至于如何慎重,还得像人类基因组计划施行之初那样,要召集各方面的专家,议定全面发展计划,尤其不能缺失科技伦理和法律方面的专家,而不能只是让技术专家来决定人工智能的发展和进程。

(责任编辑:范戴芫)

精彩图片