当前位置     首页 > 滚动 > 正文
中经搜索

加强算法风险全流程治理 创设算法规范“中国方案”

2022年03月02日 09:13   来源:央视网   

  2022年3月1日,国家互联网信息办公室、工业和信息化部、公安部、市场监管总局联合发布的《互联网信息服务算法推荐管理规定》(下文简称《规定》)正式施行。在大数据经济时代,算法是个人信息处理者收集和处理数据、推送信息、调配资源的核心力量。算法一旦失范,将给国家利益、社会公共利益和公民合法权益带来严重威胁。因此,《规定》的施行具有鲜明的时代意义和现实需求。

  算法是计算机的核心运行逻辑,是一套基于设计目的的数据处理指令的总和,在底层上体现出专业科技的特点。算法也是一门赋能技术,应用场景为赋能领域,当算法应用到具体的商业模式当中,就会产生应用型风险。算法关系就是这样一种“方式”与“领域”的叠加关系或结合关系。因此,算法规范不能不谈 “方式”,算法的设计、测试、评估属于科技活动,“算法黑箱”、“算法霸权”部分是因科技活动本身的不规范所致;算法规范也不能只谈“方式”,因为正是算法层出不穷的应用场景,使得算法现实地影响我们的权益,影响人的自由发展。《规定》充分把握了算法的内生性风险和应用型风险,有针对性地设计风险防范规则。

  第一,算法内生性风险的控制重点在算法的设计和运行阶段。算法的设计、测试、评估非专业人士不能为之,这种“排他性”表明算法活动是一项专门技术。算法黑箱、算法歧视等痼疾的产生,部分也源于科技活动本身的复杂性。因此,对科技活动的规范,需要从科技风险防范的角度设计专门规则。《规定》鼓励使用算法传播正能量、抵制违法和不良信息,不得设置诱导用户沉迷、过度消费等有违伦理道德的算法模型,推动算法向上向善。表明了作为科技活动的算法研发不能仅有工具理性,必须具有价值理性。

  在具体规则层面,《规定》也侧重于从技术角度,直接规范算法设计和运行。例如,第9条第1款要求算法推荐服务提供者建立健全用于识别违法和不良信息的特征库,完善入库标准、规则和程序;第10条要求算法推荐服务提供者加强用户模型和用户标签管理;第12条鼓励算法推荐服务提供者综合运用内容去重、打散干预等策略,并优化检索、排序、选择、推送、展示等规则的透明度和可解释性等等。

  特别值得关注的是,《规定》第24条规定算法备案制度,要求算法推荐服务提供者提供算法类型、算法自评估报告、拟公示内容等信息。科技活动风险控制首推风险评估与实验数据记录。如果算法活动缺乏风险评估,则使得风险无法从源头控制;如果算法设计和检验缺乏记录,则监管机构无法进行有效地评估、追溯和验证复杂算法。备案制度一定意义上倒逼算法推荐服务提供者积极进行风险评估和全流程记录,既能督促运营者在整个算法活动阶段考虑算法合规问题,也有助于帮助执法机关监督算法活动。

  第二,算法应用型风险的治理覆盖了算法运行的全生命周期。算法既是科学技术,也是赋能手段,其除了具备科技固有的风险之外,也因在商业和公共事业领域的嵌入式应用,对源于工业时代立法模式和治理模式不断冲击,引发了诸多治理痛点。在应用环节,我们也要贯彻程序性控制。但算法应用有着不同于算法研发的特殊性:算法应用直接作用于算法相对人。算法应用将影响算法相对人的合法权益——算法针对算法相对人的诉求做出决定。为了解决应用型风险,《规定》针对未成年人、老年人、劳动者和大数据杀熟等场景,分别配置相应的行为规则(第19条至第21条)。为了实现自下而上的算法治理,《规定》还通过权利路径,赋予个人对抗算法决策的权利。

  《规定》第17条第1款规定:“算法推荐服务提供者应当向用户提供不针对其个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项。用户选择关闭算法推荐服务的,算法推荐服务提供者应当立即停止提供相关服务。”相较于《个人信息保护法》第24条第2款的规定,本条进一步明确规定了算法应用拒绝权。

  此外,第17条第2款规定:“算法推荐服务提供者应当向用户提供选择或者删除用于算法推荐服务的针对其个人特征的用户标签的功能。”该条规定为我国首创,能够更全面地保护算法相对人的利益。算法相对人可能并不是要求算法使用人停止推荐服务,而是禁止推定特定类型的服务。通过赋予算法相对人删除标签的权利,能够更全面的满足用户的要求。

  同时,《规定》第17条第3款还规定:“算法推荐服务提供者应用算法对用户权益造成重大影响的,应当依法予以说明并承担相应责任。”比如,在动态定价当中,如果推荐给用户的价格偏高,可能构成对用户权益的重大影响。用户可以要求算法推荐服务提供者给予说明。如果构成侵犯民事权益的,算法推荐服务提供者应根据法律规定承担相应责任。

  算法风险的全流程治理,在“风险-规制”框架下寻找新的平衡点和组合方式。算法在本质上是处理数据的代码,是一项应用科学技术。但技术并非中立,尤其是当算法处理的不是“物”、而是“个人信息”时,算法活动就兼具社会活动属性,内涵伦理和社会风险。因此,算法规范难题部分来源于科技的专业性和工具性,部分来源于应用场景当中的价值复杂性。《规定》针对科技风险与应用风险设计规则,在“风险-规制”框架下创设了算法规范的中国方案。

  (作者:林洹民,浙江大学光华法学院讲师,工业与信息化法治研究院研究员)

(责任编辑:年巍)

分享到:
延伸阅读
中国经济网版权及免责声明:
1、凡本网注明“来源:中国经济网” 或“来源:经济日报-中国经济网”的所有作品,版权均属于
  中国经济网(本网另有声明的除外);未经本网授权,任何单位及个人不得转载、摘编或以其它
  方式使用上述作品;已经与本网签署相关授权使用协议的单位及个人,应注意该等作品中是否有
  相应的授权使用限制声明,不得违反该等限制声明,且在授权范围内使用时应注明“来源:中国
  经济网”或“来源:经济日报-中国经济网”。违反前述声明者,本网将追究其相关法律责任。
2、本网所有的图片作品中,即使注明“来源:中国经济网”及/或标有“中国经济网(www.ce.cn)”
  水印,但并不代表本网对该等图片作品享有许可他人使用的权利;已经与本网签署相关授权使用
  协议的单位及个人,仅有权在授权范围内使用该等图片中明确注明“中国经济网记者XXX摄”或
  “经济日报社-中国经济网记者XXX摄”的图片作品,否则,一切不利后果自行承担。
3、凡本网注明 “来源:XXX(非中国经济网)” 的作品,均转载自其它媒体,转载目的在于传递更
  多信息,并不代表本网赞同其观点和对其真实性负责。
4、如因作品内容、版权和其它问题需要同本网联系的,请在30日内进行。

※ 网站总机:010-81025111 有关作品版权事宜请联系:010-81025135 邮箱:

精彩图片
关于经济日报社关于中国经济网网站大事记网站诚聘版权声明互联网视听节目服务自律公约广告服务友情链接纠错邮箱
经济日报报业集团法律顾问:北京市鑫诺律师事务所    中国经济网法律顾问:北京刚平律师事务所
中国经济网 版权所有  互联网新闻信息服务许可证(10120170008)   网络传播视听节目许可证(0107190)  京ICP备18036557号

京公网安备 11010202009785号

加强算法风险全流程治理 创设算法规范“中国方案”

2022-03-02 09:13 来源:央视网

  2022年3月1日,国家互联网信息办公室、工业和信息化部、公安部、市场监管总局联合发布的《互联网信息服务算法推荐管理规定》(下文简称《规定》)正式施行。在大数据经济时代,算法是个人信息处理者收集和处理数据、推送信息、调配资源的核心力量。算法一旦失范,将给国家利益、社会公共利益和公民合法权益带来严重威胁。因此,《规定》的施行具有鲜明的时代意义和现实需求。

  算法是计算机的核心运行逻辑,是一套基于设计目的的数据处理指令的总和,在底层上体现出专业科技的特点。算法也是一门赋能技术,应用场景为赋能领域,当算法应用到具体的商业模式当中,就会产生应用型风险。算法关系就是这样一种“方式”与“领域”的叠加关系或结合关系。因此,算法规范不能不谈 “方式”,算法的设计、测试、评估属于科技活动,“算法黑箱”、“算法霸权”部分是因科技活动本身的不规范所致;算法规范也不能只谈“方式”,因为正是算法层出不穷的应用场景,使得算法现实地影响我们的权益,影响人的自由发展。《规定》充分把握了算法的内生性风险和应用型风险,有针对性地设计风险防范规则。

  第一,算法内生性风险的控制重点在算法的设计和运行阶段。算法的设计、测试、评估非专业人士不能为之,这种“排他性”表明算法活动是一项专门技术。算法黑箱、算法歧视等痼疾的产生,部分也源于科技活动本身的复杂性。因此,对科技活动的规范,需要从科技风险防范的角度设计专门规则。《规定》鼓励使用算法传播正能量、抵制违法和不良信息,不得设置诱导用户沉迷、过度消费等有违伦理道德的算法模型,推动算法向上向善。表明了作为科技活动的算法研发不能仅有工具理性,必须具有价值理性。

  在具体规则层面,《规定》也侧重于从技术角度,直接规范算法设计和运行。例如,第9条第1款要求算法推荐服务提供者建立健全用于识别违法和不良信息的特征库,完善入库标准、规则和程序;第10条要求算法推荐服务提供者加强用户模型和用户标签管理;第12条鼓励算法推荐服务提供者综合运用内容去重、打散干预等策略,并优化检索、排序、选择、推送、展示等规则的透明度和可解释性等等。

  特别值得关注的是,《规定》第24条规定算法备案制度,要求算法推荐服务提供者提供算法类型、算法自评估报告、拟公示内容等信息。科技活动风险控制首推风险评估与实验数据记录。如果算法活动缺乏风险评估,则使得风险无法从源头控制;如果算法设计和检验缺乏记录,则监管机构无法进行有效地评估、追溯和验证复杂算法。备案制度一定意义上倒逼算法推荐服务提供者积极进行风险评估和全流程记录,既能督促运营者在整个算法活动阶段考虑算法合规问题,也有助于帮助执法机关监督算法活动。

  第二,算法应用型风险的治理覆盖了算法运行的全生命周期。算法既是科学技术,也是赋能手段,其除了具备科技固有的风险之外,也因在商业和公共事业领域的嵌入式应用,对源于工业时代立法模式和治理模式不断冲击,引发了诸多治理痛点。在应用环节,我们也要贯彻程序性控制。但算法应用有着不同于算法研发的特殊性:算法应用直接作用于算法相对人。算法应用将影响算法相对人的合法权益——算法针对算法相对人的诉求做出决定。为了解决应用型风险,《规定》针对未成年人、老年人、劳动者和大数据杀熟等场景,分别配置相应的行为规则(第19条至第21条)。为了实现自下而上的算法治理,《规定》还通过权利路径,赋予个人对抗算法决策的权利。

  《规定》第17条第1款规定:“算法推荐服务提供者应当向用户提供不针对其个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项。用户选择关闭算法推荐服务的,算法推荐服务提供者应当立即停止提供相关服务。”相较于《个人信息保护法》第24条第2款的规定,本条进一步明确规定了算法应用拒绝权。

  此外,第17条第2款规定:“算法推荐服务提供者应当向用户提供选择或者删除用于算法推荐服务的针对其个人特征的用户标签的功能。”该条规定为我国首创,能够更全面地保护算法相对人的利益。算法相对人可能并不是要求算法使用人停止推荐服务,而是禁止推定特定类型的服务。通过赋予算法相对人删除标签的权利,能够更全面的满足用户的要求。

  同时,《规定》第17条第3款还规定:“算法推荐服务提供者应用算法对用户权益造成重大影响的,应当依法予以说明并承担相应责任。”比如,在动态定价当中,如果推荐给用户的价格偏高,可能构成对用户权益的重大影响。用户可以要求算法推荐服务提供者给予说明。如果构成侵犯民事权益的,算法推荐服务提供者应根据法律规定承担相应责任。

  算法风险的全流程治理,在“风险-规制”框架下寻找新的平衡点和组合方式。算法在本质上是处理数据的代码,是一项应用科学技术。但技术并非中立,尤其是当算法处理的不是“物”、而是“个人信息”时,算法活动就兼具社会活动属性,内涵伦理和社会风险。因此,算法规范难题部分来源于科技的专业性和工具性,部分来源于应用场景当中的价值复杂性。《规定》针对科技风险与应用风险设计规则,在“风险-规制”框架下创设了算法规范的中国方案。

  (作者:林洹民,浙江大学光华法学院讲师,工业与信息化法治研究院研究员)

(责任编辑:年巍)

查看余下全文