人工智能的风险预测与行政法规制

2019年10月30日 09:07   来源:行政管理改革   李帅

  [作者简介]李帅,北京外国语大学法学院讲师。

  [摘 要] 人工智能技术的出现,一定程度上满足了人类对于机器拟真的想象。依托数据模型和预设算法的自动化决策与执行,在体现设计者初始意图的基础上不断进行自我训练、学习及演化,使人工智能行为呈现出无监督时的不可控趋势。规制这种新型“类智性”主体的行为,不仅需要对可能的行为后果展开风险预测以及社会效应和法效应评估,还离不开对此类技术从概念到特征的基本认知与理解。以现代行政法风险规制理论为指导,在预测风险、评估风险、防范风险及规制行为的过程中,应当综合运用法律、伦理、科技的思想和手段,充分发挥多元主体、多种工具的协同治理作用,最终实现有效规制与适度规制的统一,达到既不遏制科技创新,又尊重人类心性与灵性的目标。

  [关键词]人工智能;风险;算法;规制

  [中图分类号] D63

  [文献标识码] A

  人工智能发展史上,智能棋手AlphaGo的出现具有划时代意义。它依托深度神经网络方法模拟人类大脑思维模式,通过自主直觉训练实现棋术的进步。2016年,AlphaGo击败棋手李世石,成为第一个不需借助“让子”即可战胜职业选手的电脑围棋程序,①?这距其研发启动仅过去不到三年。因而在当前,人类对于高速发展的拟真技术除了具有猎奇心理之外,更多是对未来命运、技术掌控能力以及规则完备程度的担忧。

  一、“奇点临近”:人工智能的潜在风险与法学研究任务

  (一)“奇点临近”的现实可能

  2005年,美国未来学家雷?库兹韦尔(Ray Kurzweil)出版著作《奇点临近》(The Singularity Is Near),预测科学技术的发展将在2045年迎来“奇点”。① [1]暂不论库兹韦尔的观点更偏向于可知论还是不可知论,首先关注的应是如何把握这种“不易预知”的科技发展将会引发的社会效果。倘若奇点时期确会来临,人类对诱发社会风险的主体及行为都不甚了解,又如何制定或完善法律,以发挥社会规范的作用呢?

  单纯从人工智能技术本身来看,以AlphaGo为例的智能主体实质仅比机械计算发展出了更多层次的推理和学习能力,属于“弱人工智能”,并不具备真正的自主意识。[2]而针对强人工智能,当前物理学、心理学以及哲学研究中获得较广泛认可的观点是:在人类意识尚未进入量子力学之前,所有的人造机器必然只是在某些方面具备高于人类的能力,[3]即在当下以及可预见的未来,超越工具意义的强人工智能尚不会出现,那么对人工智能影响效果的预测也就并非天方夜谭。

  (二)新时代的法学研究思路及任务

  不同于科研及商用领域“乐观派”与“担忧派”的分歧,②法学界当前要务并非辩论科技伦理,而是更加关注人工智能对社会结构及各项制度的冲击。笔者认同“奇点临近”的非紧迫性理论,但并不否认人工智能将会产生大量的潜在风险。基于现代社会风险的多样性特征,并以行政法风险规制理论为指导,可知囿于人类知识限度,对于人工智能风险的不确定性是无法完全把握的,[4]也就是说伴随人工智能的发展,与其相关的风险(此处尤指人为风险)在特征、趋势、后果等方面,总会有一项或多项难以被人类预知。所以这种情况下,杰克?巴尔金(Jack M. Balkin)教授单纯强调以“后果”为标准探索规制方式,而否定通过技术特征把握风险成因,进而确定规制措施的观点就显现出一定的逻辑瑕疵。[5]

  然而,这并不意味着作为规制前提的风险预测完全失去意义,因为即使无法避免时代区间的限制,风险预测本身还是具备前瞻性的,可在一定程度上为规制行为提供思路。因此,霍姆斯(Oliver Wendell Holmes)式的路径 ③[6]与海德格尔(Martin Heidegger)本体论的观点 ④[7]就应实现作用上的协同。也就是说,面对以人工智能为代表的新生行为,既要全面把握现实和预测风险,了解其可能引发的问题并探索其中的社会关系、法律关系,⑤又要合理认知科技现象,并以之为基础寻找人工智能可能异化或失控的法律成因,为不能完全预测风险时的各项行为提供依据,做到研究思路和研究方法的客观全面。

  二、规制溯因:人工智能风险规制的理论与实践基点

  (一)功能论下的规制基点:人工智能潜在风险的负面效应

  正如哈贝马斯(Jürgen Habermas)所言,科技发展对现代化进程的作用已取得一般共识,[8]因而着眼于现象之于本质的影响,并将规制原因作为出发点,可以借助科技发展趋势适当预测人工智能的潜在风险,并将关注重点放在技术发展给人类本身造成的双重负面效应上。

  1.负面社会效应

  互联网时代,人工智能技术被较多地用于进行身份识别。但是,Facebook曾将非洲裔夫妇识别为大猩猩,[9]翻译软件自动将“工程师”“护士”等名词对应于男性和女性的现象经常出现。[10]这既有违科技的中立性,还不利于维护社会公平的应然状态,若失于监管很可能加剧技术所有者的不当利用行为。届时基于频发的社会矛盾,诉讼量亦会呈现上升趋势,所以公平的缺失既是人工智能潜在风险的负面社会效应,同时也是负面法效应。

  在伦理方面,人工智能带来的负面效应主要包括三方面:一是基于机器学习的人工智能自主行为可能超越程序本身的设定,而人类对该行为是否存在道德偏见也无法掌控,例如微软聊天机器人Tay事件。①[?11]二是人工智能技术可能被用来实现一些缺乏合理依据的不当评估,例如“云从科技”研发的智能系统通过读取脸部特征和行为举止判断个人的社会威胁性。[12]三是事故中的“智能避险方案”,可能并未妥善处理“技术判断最优”和“心理价值判断最优”之间的关系,经典案例为“电车难题”。可见人工智能技术在当前的应用中已经有异化风险,未来很可能挑战人类对于自身的认知、信任、把握与控制。

  2.负面法效应

  人工智能的决策与立法具有双重含义:第一,以“人”为原点投射向人工智能时,主要的行为内容就是以公法手段规制机器决策。由于规制的标准化程度低,尤其是在数据安全、数据共享等方面存在制度分歧,所以很可能诱发的风险就是规制主体(多为国家或地区)内部的不协调。第二,以“机器”为原点投射人类社会时,探讨的则是利用人工智能进行决策和立法可能给社会法治带来的影响。一方面,人工智能主体的法律地位尚不明确,导致决策与立法发生失误或瑕疵时的追责困难。另一方面,自动化模式虽然能够保证决策与立法内容的精准性和统一性,但在合理性上却不易把控,欠缺人为模式下因事因地制宜的能力,影响治理实效。

  此外,人工智能在发展过程中还可能引发诸如个人信息安全、劳动力配置与人口失业、武器自动化与人权保障等社会问题,以及致损侵权等法律问题,使规制的必要性更为突出。

  (二)本体论下的规制基点:人工智能风险成因的法律分析

  如果说充分把握社会发展规律是功能主义思路对风险及其负面效应进行预测的前提,并且主要体现价值理性的话,那么本体论指导下的风险预测则更多地依赖对人工智能技术本身的理解,侧重于科技理性。②?[13]当然,在论及人工智能、机器学习诱发风险的可能原因时,除了这些科技术语的内涵、特征及内在关联外,还会不可避免地涉及法学场域内各要素,以及法学与科技跨域要素之间的关系。这一方面表明技术与法律已经成为当前社会难以割裂的治理方式,另一方面也佐证了功能主义研究不能脱离本体主义基础。以此为视角,可以将人工智能的发展,以及发展过程中导致风险产生的原因归纳为“三重偏见”。而在每一重偏见之中,都蕴含着科技与法律的相互作用。

  1.原始数据偏见

  人工智能运行的基本模式是对大量社会经验进行总结,由系统制定并执行相应自动化决策。这里提到的经验来源于日常生活,并经技术人员抽象汇总形成电子化代码。因基础数据具备影响决策内容的重要性,所以需要在最大限度内保证数据的普遍、真实与客观。与收集方式、收集途径可能造成的数据瑕疵相比,原始数据自身的片面性更容易被忽视,在避免方案的设计上也更具难度。

  上述现象的成因,一方面是数据统计时的样本范围不具备全面性,导致无法从中获取普遍信息;[14]另一方面则是在该领域,社会自身的习惯或制度即存在偏见,因此无论样本数据库的容量有多大,也不能完全滤除其中的不平等因素,从而影响数据挖掘结果。[15]在此,由于前一情形下的问题可通过技术手段解决,故重点探讨后者:社会固有偏见。这些在特定时空范围内更能够发挥作用的不成文规范,足以导致与法律规定不符的事实状态发生,即权利义务不对等关系。若这种关系反映在人工智能可能作出的决策中,将会给未来社会的合理性、稳定性带来风险。

  2.算法偏见

  在对人工智能产生影响的要素中,原始数据多以客观形式存在,而算法则具备相对较强的主观色彩。当前,智能系统中初始算法的设定尚不能脱离人的编程行为,因此即便某种算法设计之初的动机是中立的,也很难避免由以下两种原因造成的算法偏见:一是法律的实体性规定存在空白,针对特定事项设定算法时无据可依;二是法律程序性规定的缺失与编程者自身偏见相叠加,导致瑕疵算法被下意识且无监督地写入系统中,而非透明性、弱参与化的流程又加剧了这种算法偏见的不利影响。

  由此,当智能系统执行算法内容时,其运行结果可能的负外部性主要表现在两个层面,即:根据该算法所得有关资源分配、权利义务配置等具体结果,可能在外观或形式上并不违法,但在合理性方面存在瑕疵和争议,与法律的精神内核相左,因而不符合实质法治的要求。或者前述结果在实体方面无显著问题,但公众却无从得知算法的设定原则、设定过程等细节,这同样不是现代法治的应有之义。

  3.学习环境偏见

  在依托算法实现最初的系统运行后,人工智能将通过经验自动改进算法内容,以期在不断的自我矫正中,使运算结果呈现与社会发展更强的匹配性。即使机器学习的效率远超过人类,但其本质仍然是在运用人类学习中的演绎、归纳及类比的方法得出结论,[16]从而改变决策方式。因此,人工智能机器学习过程的实现不仅以外界环境为基础,还努力与该环境所体现的社会趋势保持一致。

  当前世界范围内尚不存在绝对公正客观的社会,这一点从前文对基础数据偏见的论述中即可得到佐证,故机器学习可能导致结果不公正的首要因素,就是社会环境中普遍存在的不完全公正现象。但需要强调的是,现实中的学习环境偏见问题多由人为造成,系编程者基于个人或团体需求,对人工智能的学习环境作出限制,导致其运行结果体现部门利益,从而诱发各种负面效应。

  三、预测与防范:“类智性”主体风险行为的规制思路

  基于社会影响与技术成因方面的法律负外部性,对人工智能进行规制已成为实务之必要。但人工智能主体的“类智性”特征、机器学习产物的不确定性以及经系统运行方可生成结果的程序特殊化,都要求规制主体选择与以往不同的规制路径。在此过程中,首先应当明确的就是规制思路。前文已综合运用了功能论与主体论思想探讨规制必要性,而这里将进一步引入传统法理分析方法论证法律行为间的因果关系,以及法律经济分析方法论证责任分配可能产生的社会效益,从而为非人格化主体引发的不确定法律风险,提供规制指导。

  (一)主体身份明确化

  行为主体即行为的实施者。民法中,除了未满特定年龄、心智不健全的主体不承担法定责任或者不能承担完全责任之外,行为主体的范围在很大程度上是与责任主体相重合的。当前,针对人工智能行为主体的身份确定,学界已有一定程度的探讨。在我国,有主张否认人工智能责任主体地位的观点,认为人工智能作为人类制造物,其行为并无自身目的,而仅仅是在执行人类目的。[17]也有观点认为应当引入“拟制”技术,即在一般情况下并不强调人工智能的身份,只有当其决策或行为导致损害时才被赋予法律意义上的责任主体地位。[18]

  对于现实中确实存在的人工智能系统侵权行为,笔者赞同由人工智能企业或运营者承担具体的侵权责任。这是因为,人工智能的出现虽然在客观上丰富了经济行为的参与主体,但实际上体现的仍然是其设计者或运营者的价值需求。虽然人工智能具备一定程度上的智慧性,但这种“智慧”并不等同于独立思考和创造,即使有“机器学习”的存在,其实质也是在特定环境中,对人工设定算法的重复运行。所以当人工智能系统的运行结果侵犯用户个人信息相关权利时,理论上来说应当由其运营商承担相应责任。在此如果强行追究该“人工智能”的责任,一方面并不具有实际意义,另一方面即使责任由人工智能承担,最终的损害赔偿主体还是运营者。所以,笔者建议将人工智能侵害用户个人信息的责任主体明确规定为人工智能企业,或者应用人工智能技术开展活动的商家、平台。

  (二)未来风险预测化

  社会风险具有潜在性。技术发展带来各种科技现象的瞬息万变,又使预知未来风险达到前所未有的难度。因此,人工智能诱发的风险很可能超出行政行为主体甚至是超出人类的认知范畴,难以为防范方案的制定提供方向。对于需要足够事实证据方可实施的行政行为来说,显然无法在风险发生之前,就用确定的风险事实作为防范、规制行为的实施依据。

  在这样的背景下,风险防范就不应再局限于寻求确定的证据或依赖于已有经验进行判断,而是要全面适用行政法风险规制理论,对因果关系不明、时间距离遥远、破坏性不可预测也难以补救的威胁,做出可能侵害相对人权利和自由的防范措施。[19]虽然人工智能当前是按照已有程序运行,但人类尚无法完全预知其自主学习的进度与可能产物,所以基于前述风险行政法理论,人工智能的风险规制就要依托行为主体对未来风险的预测。即使这种预测具有不确定性,但因预测结果将成为规制方案的制定依据,并且可能改变既有权利义务关系,故预测结论的形成还是应当最大限度综合考虑各种因素,以形成兼具科学性与合理性的结果。

  (三)法律语言代码化

  人工智能的运作机制实际上是系统执行后台算法的过程,因而无论形成怎样的外部调控规则,都必须通过代码形式才能真正作用于智能主体,从而影响或改变其行为的内容与方式。数据收集、整合与挖掘的算法在当下已较为成熟,编程人员可以通过初创、修改、增删代码等具体行为改变人工智能运行规则,使之产生不同的行为效果。类比之下,要使法律规则与原则作用于人工智能,也同样需要代码化的过程,将这种规制理念编入人工智能的电子系统中。

  法律规范通过上述方式进入科技事务尚属新的探索,对技术治理与法律治理的融合提出了较高要求:既要容纳公平、正义等社会核心价值与法律的一般性规定,又要以恰当的程序语言使之发挥作用。

  (四)程序流程透明化

  人工智能系统程序的编写对专业能力要求较高,而将法律规范所蕴含的精神编入算法之中则更具技术挑战性,因此能够从事此项工作的主体范围极为有限。在行政程序日益受到关注的今天,即使不能保证人工智能决策程序的公众高度参与,也需要通过公开、听证等环节确保关键流程的透明化与可追溯性。

  以严格的程序性规范保障从数据收集、信息挖掘到算法编程等一系列人工智能基础行为,可以有效保障公民个人信息安全,并扩大知情权范围。虽然人工智能自主学习行为在未来一定时期内具备不可控性,导致从技术层面亦无法对学习过程进行公开,但其未来发展也应当是以公开透明为趋势,因为只有实现对学习过程的公开,才能够强化对学习环境、学习模式的监督,防止发生偏见。在科技进步与公众整体知识水平提升的基础上,公众参与也将得以实现和深化。

  四、观察与创造:人工智能风险规制的行政法制度设计

  (一)功能论指导下的现有制度完善

  从维护社会核心价值,防止技术发展给道德、法治带来负面影响的角度出发调整人工智能相关行为,是典型的法律功能论思想。综观现行法律规范,无论是潜在的立法精神还是通过条文予以明示的立法目的,都在很大程度上表明了对公正、平等、人权等价值的维护,并提及大数据时代的个人信息安全保障等问题。因此在功能论视角下,人工智能风险行为的行政规制立法可从现行《侵权责任法》《网络安全法》等规范中寻求借鉴。

  1.参照《侵权责任法》等规范明确人工智能的责任划分及责任承担方式

  面对人工智能的违法行为与侵权问题,当前尚无法律规范明确具体的归责原则和责任承担方式。以自动驾驶汽车致人损伤为例,在已知事故中,存在对设计者担责、经营者担责以及驾驶员担责等不同处理方案的探讨,但并未形成统一、具体的责任划分标准。以《侵权责任法》第五章“产品责任”的规定为依据,可知我国采用的是过错责任原则,在产品的生产者、销售者以及运输、存储者之间进行责任分配,并明确了此种情况下连带责任的产生及后续追偿。以自动驾驶汽车致损案件的责任分配方案为参考,可知人工智能致人损害的归责思路是要区分损失的产生是基于操作失误还是设计失误,因此建议在《侵权责任法》第五章中增设一条:“人工智能产品致人损害的,责任承担方式应视具体情况而定。(一)人工智能产品不需要人类操作、完全自动化工作的,依据本章其他条款的规定确定责任主体。(二)人工智能产品需要人类操作或配合操作的,应根据相关产品领域内的智能评级标准,首先确定操作者的责任大小。对需要人工智能产品担责的部分,再依据本章其他条款的规定确定责任主体。”

  在责任承担方式上,建议根据违法行为的程度确定责任种类,然后相应完善《侵权责任法》《行政处罚法》《刑法修正案(九)》等规范中的法律责任承担部分。具体而言,就是要结合人工智能致损的特殊性,分别在各部门法规中增加新的责任承担方式。

  2.在《网络安全法》中增加有关智能网络中的个人信息保护规定

  互联网大数据时代,对公民个人信息的保护已拓展至线上与线下两个维度。《网络安全法》第四章明确了网络信息安全的保障原则与具体措施,将网络运营者进一步划分为电子信息发送服务提供者、应用软件下载服务提供者等,为各主体行为提供依据。

  相比之下,人工智能系统的运行同样将多个维度或层面上的主体联系在一起,其中体现的关系甚至更具复杂性。以机器学习高度依赖用户历史信息为例,人工智能系统设计者为了提高产品效能、实现更多经济利益,很容易将算法预设为“最大限度获取用户个人信息”,并且不会限定机器学习对该信息的调用条件与调用次数,从而增加了个人信息遭受侵害的风险。基于此,建议在《网络安全法》第四章中增加相应条文内容:“人工智能企业的经营者或者人工智能产品的制造者在产品设计、运行、销售的过程中,应当以充分保障公民个人信息为原则,严格控制人工智能系统对个人信息的获取与利用限度,并定期监督机器学习对个人信息的利用情况。前述主体实施调控、监督等行为时,应当以用户知情同意的范围为标准,既不过度阻遏人工智能技术的发展与发挥作用,又最大限度地保障公民个人信息安全。”

  (二)本体论指导下的新制度创设

  1.明确法律语言代码化的行为准则

  人工智能发挥效用的关键环节就是执行算法内容,即按照程序代码运行得出相应决策或行为结果。因此根据前文述及的规制思路,可知对人工智能相关行为的治理离不开将法律要素转换成系统语言。虽然这一过程主要依赖于技术的成熟度以及编程人员的业务能力,但从法律角度理解,需要重点关注的则是应将怎样的法律规则或原则输入程序中,以及如何确保编程人员能够将恰当的法律规范输入程序中。

  因此,建议从两个方面对法律语言代码化的过程进行调控:第一,要求人工智能企业或相关行业协会,针对产品、系统的设计工作制定行为准则,该准则的内容包括但不限于代码编写的基本原则、法律规范与技术规范在算法中的配比情况,法律规范在程序运行中的作用次序等。第二,规制主体就前述企业或行业协会是否制定行为准则、准则内容的完备程度以及行为准则的实施等情况进行监督,并明确不同情形下的处理方案,通过强化公权力治理的方式,减少企业利用技术壁垒实施的侵权行为,防止“黑箱算法”持续影响公民合法权益的实现。

  2.规定人工智能设计及运行中的程序规范

  人工智能产品的运营对技术有较高依赖,这在无形中增加了用户知悉其设计、运行信息的难度。通过法律规范的形式强化程序规则,特别是将公开、参与的思想贯穿在整个流程中,是提升人工智能行为透明度、保障相对人知情权的重要措施。结合前文所述人工智能的“双主体”特征,建议将规制对象分为“人类行为程序”与“人工智能行为程序”两类。

  具体来说,人类行为程序主要包括:(1)收集基础数据时尽可能保证样本的全面客观,并对这些数据进行准确挖掘,公正地输入系统数据库中,以防止原始数据偏见;(2)严格依据行为准则设计算法,并将法律规范与技术要求按照合理比例编写在系统程序中;(3)将算法中涉及商业秘密的内容隐去后,对其设计原则、运行原理进行公开,并通过召开听证会、网络投票与征集意见等方式保障公众知悉,让未来将要享受人工智能服务或与人工智能行为相关的主体参与到决策过程中。相应地,人工智能行为程序主要有:(1)系统程序运行过程中,严格执行算法命令并将关键决策的依据对外公开;(2)基于机器自主学习作出决策或实施行为之前,应当告知相对人这一决策与行为的产生基础,并在可能的情况下作出适当解释说明。

  3.制定风险行政法规范

  在风险社会背景下,行政法规制思路与规制手段均需要有适宜的准则和规范。现行法律法规多是基于传统规制理念,即以确定可推知的风险为基础制定规制方案,但这与人工智能时代的社会风险有着较大程度的不适应性,因而需要在风险行政法理论基础上制定新的防范规则。

  综上,建议制定风险规制行政法规则,从全面认知现代社会风险的不确定性特征入手,重点明确以下几项内容:首先,应当以规避未来风险,保障公民生命、财产安全以及其他基本权利为原则。其次,明确风险规制的最低标准,面对不确定的风险,应当以最大限度保障人类的人身安全与生命健康为原则。再次,除了传统规制手段中的市场准入许可、违法行为处罚以外,针对以人工智能为代表的行为所引发的未来风险,还可能采取的规制方式包括但不限于对技术应用模式与应用程度的行政指导,对算法内容与编制过程的强制公开等。将其一般化之后可归纳为,根据技术手段推知可能造成社会危害或给他人带来权利损害的行为,规制主体有权采取各类行政行为防止其发生,即有权要求被规制主体从事特定的实体性或程序性行为。最后,对于因风险规制行为导致合法权益受损的相对人,有权要求规制主体给予补偿。

  4.引入软法手段提升治理实效

  一般而言,“软法”(soft law)是指那些难以或者不能运用国家强制力保证实施的具有公共规制性质的规范性文件或者惯例,区别于能够依靠国家强制力来保证实施的法规范——“硬法”(hard law)。软法主要包括国家立法中的指导性、号召性、激励性、宣示性的非强制性规范,国家机关制定的规范性文件中通常属于不能运用国家强制力保证实施的非强制性规范,政治组织创制的各种自律规范,社会共同体创制的各类自治规范等四大类。[20]

  在人工智能风险规制中综合运用软法与硬法措施,需要治理主体充分发掘现有法律制度的规制空白,并结合具体事项的性质、涉及主体的范围以及社会影响程度的大小等因素,决定是否利用灵活性更强的软法手段。在此过程中,最典型的软法治理方式就是丰富治理主体,促进社会团体、行业协会等不断制定、更新对于人工智能产业的规范内容,以更具专业性、针对性的规定,要求人工智能运营主体正确对待原始数据收集、算法设置以及机器学习问题,做到标本兼治并推进技术治理与法律治理的协同,最终实现人类对机器的绝对控制与引导,在科技发展中充分尊重与实现人的价值。

  [ 参 考 文 献 ]

  [1] [美]雷?库兹韦尔.奇点临近[M].李庆诚,董振华,田源译.北京: 机械工业出版社,2015:35.

  [2] 翟振明,彭晓芸.“强人工智能”将如何改变世界——人工智能的技术飞跃与应用伦理前瞻[J].人民论坛?学术前沿,2016(4).

  [3] Jack A. Tuszynski. The Emerging Physics of Consciousness[M]. Berlin: Springer,2006:27-48.

  [4] 金自宁.风险行政法研究的前提问题[J].华东政法大学学报,2014(1).

  [5] Jack M. Balkin. The Path of Robotics Law[J]. California Law Review, 2015(6).

  [6] Oliver Wendell Holmes. The Path of Law[J]. Harvard Law Review,1897(10).

  [7] Martin Heidegger. Being and Time[M].New York: Harper Perennial Modern,2008:25-26.

  [8] 王江涛.哈贝马斯公共领域思想研究[M].北京:中国社会科学出版社,2015:58.

  [9] Jessica Guynn. Google Photos Labeled Black People "Gorillas"[EB/OL]. https://www.usatoday.com/story/tech/2015/07/01/googleapologizes-after-photos-identify-black-people-as-gorillas/29567465, 2019-07-20.

  [10] Aylin Caliskan. Semantics Derived Automatically from Language Corpora Contain Human-Like Biases[J].Science,2017(356).

  [11] 中关村在线.人工智能2016十大里程碑盘点 革命还是泡沫?[EB/OL]. http://news.zol.com.cn/622/6222670.html, 2019-07-20.

  [12] 中国安防展览网. 人工智能时代 伦理与创新之间该如何平衡?[EB/OL].http://www.afzhan.com/news/detail/63997.html, 2019-07-20.

  [13] Max Weber, Guenther Roth, Claus Wittich. Economy and Society[M]. Berkeley: University of California Press,1978:24-25.

  [14] Adam Rose. Are Face-Detection Cameras Racist? [EB/OL]. http://content.time.com/time/business/article/0,8599,1954643,00.html, 2019-07-20.

  [15] Solon Barocas, Andrew D. Selbst. Big Data's Disparate Impact[J]. California Law Review,2016(4).

  [16] 黄亚强.以机器学习为基础的人工智能[J].电子技术与软件工程,2018(8).

  [17] 吴汉东.人工智能时代的制度安排与法律规制[J].法律科学,2017(5).

  [18] 陈吉栋.论机器人的法律人格——基于法释义学的讨论[J].上海大学学报(社会科学版),2018(3).

  [19] 张青波.自我规制的规制:应对科技风险的法理与法制[J].华东政法大学学报,2018(1).

  [20] 马长山.互联网+时代“软法之治”的问题与对策[J].现代法学,2016(5).

(责任编辑:臧梦雅)

精彩图片

人工智能的风险预测与行政法规制

2019-10-30 09:07 来源:行政管理改革
查看余下全文