当前位置     首页 > 滚动 > 正文
中经搜索

加强算法风险全流程治理 创设算法规范“中国方案”

2022年03月02日 09:13   来源:央视网   

  2022年3月1日,国家互联网信息办公室、工业和信息化部、公安部、市场监管总局联合发布的《互联网信息服务算法推荐管理规定》(下文简称《规定》)正式施行。在大数据经济时代,算法是个人信息处理者收集和处理数据、推送信息、调配资源的核心力量。算法一旦失范,将给国家利益、社会公共利益和公民合法权益带来严重威胁。因此,《规定》的施行具有鲜明的时代意义和现实需求。

  算法是计算机的核心运行逻辑,是一套基于设计目的的数据处理指令的总和,在底层上体现出专业科技的特点。算法也是一门赋能技术,应用场景为赋能领域,当算法应用到具体的商业模式当中,就会产生应用型风险。算法关系就是这样一种“方式”与“领域”的叠加关系或结合关系。因此,算法规范不能不谈 “方式”,算法的设计、测试、评估属于科技活动,“算法黑箱”、“算法霸权”部分是因科技活动本身的不规范所致;算法规范也不能只谈“方式”,因为正是算法层出不穷的应用场景,使得算法现实地影响我们的权益,影响人的自由发展。《规定》充分把握了算法的内生性风险和应用型风险,有针对性地设计风险防范规则。

  第一,算法内生性风险的控制重点在算法的设计和运行阶段。算法的设计、测试、评估非专业人士不能为之,这种“排他性”表明算法活动是一项专门技术。算法黑箱、算法歧视等痼疾的产生,部分也源于科技活动本身的复杂性。因此,对科技活动的规范,需要从科技风险防范的角度设计专门规则。《规定》鼓励使用算法传播正能量、抵制违法和不良信息,不得设置诱导用户沉迷、过度消费等有违伦理道德的算法模型,推动算法向上向善。表明了作为科技活动的算法研发不能仅有工具理性,必须具有价值理性。

  在具体规则层面,《规定》也侧重于从技术角度,直接规范算法设计和运行。例如,第9条第1款要求算法推荐服务提供者建立健全用于识别违法和不良信息的特征库,完善入库标准、规则和程序;第10条要求算法推荐服务提供者加强用户模型和用户标签管理;第12条鼓励算法推荐服务提供者综合运用内容去重、打散干预等策略,并优化检索、排序、选择、推送、展示等规则的透明度和可解释性等等。

  特别值得关注的是,《规定》第24条规定算法备案制度,要求算法推荐服务提供者提供算法类型、算法自评估报告、拟公示内容等信息。科技活动风险控制首推风险评估与实验数据记录。如果算法活动缺乏风险评估,则使得风险无法从源头控制;如果算法设计和检验缺乏记录,则监管机构无法进行有效地评估、追溯和验证复杂算法。备案制度一定意义上倒逼算法推荐服务提供者积极进行风险评估和全流程记录,既能督促运营者在整个算法活动阶段考虑算法合规问题,也有助于帮助执法机关监督算法活动。

  第二,算法应用型风险的治理覆盖了算法运行的全生命周期。算法既是科学技术,也是赋能手段,其除了具备科技固有的风险之外,也因在商业和公共事业领域的嵌入式应用,对源于工业时代立法模式和治理模式不断冲击,引发了诸多治理痛点。在应用环节,我们也要贯彻程序性控制。但算法应用有着不同于算法研发的特殊性:算法应用直接作用于算法相对人。算法应用将影响算法相对人的合法权益——算法针对算法相对人的诉求做出决定。为了解决应用型风险,《规定》针对未成年人、老年人、劳动者和大数据杀熟等场景,分别配置相应的行为规则(第19条至第21条)。为了实现自下而上的算法治理,《规定》还通过权利路径,赋予个人对抗算法决策的权利。

  《规定》第17条第1款规定:“算法推荐服务提供者应当向用户提供不针对其个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项。用户选择关闭算法推荐服务的,算法推荐服务提供者应当立即停止提供相关服务。”相较于《个人信息保护法》第24条第2款的规定,本条进一步明确规定了算法应用拒绝权。

  此外,第17条第2款规定:“算法推荐服务提供者应当向用户提供选择或者删除用于算法推荐服务的针对其个人特征的用户标签的功能。”该条规定为我国首创,能够更全面地保护算法相对人的利益。算法相对人可能并不是要求算法使用人停止推荐服务,而是禁止推定特定类型的服务。通过赋予算法相对人删除标签的权利,能够更全面的满足用户的要求。

  同时,《规定》第17条第3款还规定:“算法推荐服务提供者应用算法对用户权益造成重大影响的,应当依法予以说明并承担相应责任。”比如,在动态定价当中,如果推荐给用户的价格偏高,可能构成对用户权益的重大影响。用户可以要求算法推荐服务提供者给予说明。如果构成侵犯民事权益的,算法推荐服务提供者应根据法律规定承担相应责任。

  算法风险的全流程治理,在“风险-规制”框架下寻找新的平衡点和组合方式。算法在本质上是处理数据的代码,是一项应用科学技术。但技术并非中立,尤其是当算法处理的不是“物”、而是“个人信息”时,算法活动就兼具社会活动属性,内涵伦理和社会风险。因此,算法规范难题部分来源于科技的专业性和工具性,部分来源于应用场景当中的价值复杂性。《规定》针对科技风险与应用风险设计规则,在“风险-规制”框架下创设了算法规范的中国方案。

  (作者:林洹民,浙江大学光华法学院讲师,工业与信息化法治研究院研究员)

(责任编辑:年巍)

閸掑棔闊╅崚甯窗
延伸阅读
娑擃厼娴楃紒蹇旂ス缂冩垹澧楅弶鍐ㄥ挤閸忓秷鐭楁竟鐗堟閿涳拷
1閵嗕礁鍤掗張顒傜秹濞夈劍妲戦垾婊勬降濠ф劧绱版稉顓炴禇缂佸繑绁圭純鎴斺偓锟� 閹存牑鈧粍娼靛┃鎰剁窗缂佸繑绁归弮銉﹀Г-娑擃厼娴楃紒蹇旂ス缂冩垟鈧繄娈戦幍鈧張澶夌稊閸濅緤绱濋悧鍫熸綀閸у洤鐫樻禍锟�
閵嗏偓 娑擃厼娴楃紒蹇旂ス缂冩埊绱欓張顒傜秹閸欙附婀佹竟鐗堟閻ㄥ嫰娅庢径鏍电礆閿涙稒婀紒蹇旀拱缂冩垶宸块弶鍐跨礉娴犺缍嶉崡鏇氱秴閸欏﹣閲滄禍杞扮瑝瀵版娴嗘潪濮愨偓浣规喅缂傛牗鍨ㄦ禒銉ュ従鐎癸拷
閵嗏偓 閺傜懓绱℃担璺ㄦ暏娑撳﹨鍫担婊冩惂閿涙稑鍑$紒蹇庣瑢閺堫剛缍夌粵鍓ц閻╃ǹ鍙ч幒鍫熸綀娴h法鏁ら崡蹇氼唴閻ㄥ嫬宕熸担宥呭挤娑擃亙姹夐敍灞界安濞夈劍鍓扮拠銉х搼娴f粌鎼ф稉顓熸Ц閸氾附婀�
閵嗏偓 閻╃ǹ绨查惃鍕房閺夊啩濞囬悽銊╂閸掕泛锛愰弰搴礉娑撳秴绶辨潻婵嗗冀鐠囥儳鐡戦梽鎰煑婢圭増妲戦敍灞肩瑬閸︺劍宸块弶鍐瘱閸ユ潙鍞存担璺ㄦ暏閺冭泛绨插▔銊︽閳ユ粍娼靛┃鎰剁窗娑擃厼娴�
閵嗏偓 缂佸繑绁圭純鎴斺偓婵囧灗閳ユ粍娼靛┃鎰剁窗缂佸繑绁归弮銉﹀Г-娑擃厼娴楃紒蹇旂ス缂冩垟鈧縿鈧倽绻氶崣宥呭鏉╂澘锛愰弰搴も偓鍜冪礉閺堫剛缍夌亸鍡氭嫹缁岃泛鍙鹃惄绋垮彠濞夋洖绶ョ拹锝勬崲閵嗭拷
2閵嗕焦婀扮純鎴炲閺堝娈戦崶鍓у娴f粌鎼ф稉顓ㄧ礉閸楀厖濞囧▔銊︽閳ユ粍娼靛┃鎰剁窗娑擃厼娴楃紒蹇旂ス缂冩垟鈧繂寮�/閹存牗鐖i張澶嗏偓婊€鑵戦崶鐣岀病濞村海缍�(www.ce.cn)閳ワ拷
閵嗏偓 濮樻潙宓冮敍灞肩稻楠炴湹绗夋禒锝堛€冮張顒傜秹鐎电顕氱粵澶婃禈閻楀洣缍旈崫浣烽煩閺堝顔忛崣顖欑铂娴滆桨濞囬悽銊ф畱閺夊啫鍩勯敍娑樺嚒缂佸繋绗岄張顒傜秹缁涘墽璁查惄绋垮彠閹哄牊娼堟担璺ㄦ暏
閵嗏偓 閸楀繗顔呴惃鍕礋娴e秴寮锋稉顏冩眽閿涘奔绮庨張澶嬫綀閸︺劍宸块弶鍐瘱閸ユ潙鍞存担璺ㄦ暏鐠囥儳鐡戦崶鍓у娑擃厽妲戠涵顔芥暈閺勫簶鈧粈鑵戦崶鐣岀病濞村海缍夌拋鎷屸偓鍖礨X閹藉嫧鈧繃鍨�
閵嗏偓 閳ユ粎绮″ù搴㈡)閹躲儳銇�-娑擃厼娴楃紒蹇旂ス缂冩垼顔囬懓鍖礨X閹藉嫧鈧繄娈戦崶鍓у娴f粌鎼ч敍灞芥儊閸掓瑱绱濇稉鈧崚鍥︾瑝閸掆晛鎮楅弸婊嗗殰鐞涘本澹欓幏鍛偓锟�
3閵嗕礁鍤掗張顒傜秹濞夈劍妲� 閳ユ粍娼靛┃鎰剁窗XXX閿涘牓娼稉顓炴禇缂佸繑绁圭純鎴礆閳ワ拷 閻ㄥ嫪缍旈崫渚婄礉閸у洩娴嗘潪鍊熷殰閸忚泛鐣犳刊鎺嶇秼閿涘矁娴嗘潪鐣屾窗閻ㄥ嫬婀禍搴濈炊闁帗娲�
閵嗏偓 婢舵矮淇婇幁顖ょ礉楠炴湹绗夋禒锝堛€冮張顒傜秹鐠х偛鎮撻崗鎯邦潎閻愮懓鎷扮€电懓鍙鹃惇鐔风杽閹嗙鐠愶絻鈧拷
4閵嗕礁顩ч崶鐘辩稊閸濅礁鍞寸€瑰箍鈧胶澧楅弶鍐ㄦ嫲閸忚泛鐣犻梻顕€顣介棁鈧憰浣告倱閺堫剛缍夐懕鏃傞兇閻ㄥ嫸绱濈拠宄版躬30閺冦儱鍞存潻娑滎攽閵嗭拷

閳ワ拷 缂冩垹鐝幀缁樻簚閿涳拷010-81025111 閺堝鍙ф担婊冩惂閻楀牊娼堟禍瀣杹鐠囩柉浠堢化浼欑窗010-81025135 闁喚顔堥敍锟�

精彩图片
閸忓厖绨紒蹇旂ス閺冦儲濮ょ粈锟� 閿涳拷 閸忓厖绨稉顓炴禇缂佸繑绁圭純锟� 閿涳拷 缂冩垹鐝径褌绨ㄧ拋锟� 閿涳拷 缂冩垹鐝拠姘充粧 閿涳拷 閻楀牊娼堟竟鐗堟 閿涳拷 娴滄帟浠堢純鎴n潒閸氼剝濡惄顔芥箛閸斅ゅ殰瀵板鍙曠痪锟� 閿涳拷 楠炲灝鎲¢張宥呭 閿涳拷 閸欏鍎忛柧鐐复 閿涳拷 缁剧娀鏁婇柇顔绢唸
缂佸繑绁归弮銉﹀Г閹躲儰绗熼梿鍡楁礋濞夋洖绶ユい楣冩6閿涳拷閸栨ぞ鍚敮鍌炴噷鐠囧搫绶ョ敮鍫滅皑閸斺剝澧�    娑擃厼娴楃紒蹇旂ス缂冩垶纭跺瀣€愰梻顕嗙窗閸栨ぞ鍚崚姘挬瀵板绗€娴滃濮熼幍鈧�
娑擃厼娴楃紒蹇旂ス缂冿拷 閻楀牊娼堥幍鈧張锟�  娴滄帟浠堢純鎴炴煀闂傝淇婇幁顖涙箛閸斅ゎ啅閸欘垵鐦�(10120170008)   缂冩垹绮舵导鐘虫尡鐟欏棗鎯夐懞鍌滄窗鐠佺ǹ褰茬拠锟�(0107190)  娴滅悂CP婢讹拷18036557閸欙拷

娴滎剙鍙曠純鎴濈暔婢讹拷 11010202009785閸欙拷

加强算法风险全流程治理 创设算法规范“中国方案”

2022-03-02 09:13 来源:央视网

  2022年3月1日,国家互联网信息办公室、工业和信息化部、公安部、市场监管总局联合发布的《互联网信息服务算法推荐管理规定》(下文简称《规定》)正式施行。在大数据经济时代,算法是个人信息处理者收集和处理数据、推送信息、调配资源的核心力量。算法一旦失范,将给国家利益、社会公共利益和公民合法权益带来严重威胁。因此,《规定》的施行具有鲜明的时代意义和现实需求。

  算法是计算机的核心运行逻辑,是一套基于设计目的的数据处理指令的总和,在底层上体现出专业科技的特点。算法也是一门赋能技术,应用场景为赋能领域,当算法应用到具体的商业模式当中,就会产生应用型风险。算法关系就是这样一种“方式”与“领域”的叠加关系或结合关系。因此,算法规范不能不谈 “方式”,算法的设计、测试、评估属于科技活动,“算法黑箱”、“算法霸权”部分是因科技活动本身的不规范所致;算法规范也不能只谈“方式”,因为正是算法层出不穷的应用场景,使得算法现实地影响我们的权益,影响人的自由发展。《规定》充分把握了算法的内生性风险和应用型风险,有针对性地设计风险防范规则。

  第一,算法内生性风险的控制重点在算法的设计和运行阶段。算法的设计、测试、评估非专业人士不能为之,这种“排他性”表明算法活动是一项专门技术。算法黑箱、算法歧视等痼疾的产生,部分也源于科技活动本身的复杂性。因此,对科技活动的规范,需要从科技风险防范的角度设计专门规则。《规定》鼓励使用算法传播正能量、抵制违法和不良信息,不得设置诱导用户沉迷、过度消费等有违伦理道德的算法模型,推动算法向上向善。表明了作为科技活动的算法研发不能仅有工具理性,必须具有价值理性。

  在具体规则层面,《规定》也侧重于从技术角度,直接规范算法设计和运行。例如,第9条第1款要求算法推荐服务提供者建立健全用于识别违法和不良信息的特征库,完善入库标准、规则和程序;第10条要求算法推荐服务提供者加强用户模型和用户标签管理;第12条鼓励算法推荐服务提供者综合运用内容去重、打散干预等策略,并优化检索、排序、选择、推送、展示等规则的透明度和可解释性等等。

  特别值得关注的是,《规定》第24条规定算法备案制度,要求算法推荐服务提供者提供算法类型、算法自评估报告、拟公示内容等信息。科技活动风险控制首推风险评估与实验数据记录。如果算法活动缺乏风险评估,则使得风险无法从源头控制;如果算法设计和检验缺乏记录,则监管机构无法进行有效地评估、追溯和验证复杂算法。备案制度一定意义上倒逼算法推荐服务提供者积极进行风险评估和全流程记录,既能督促运营者在整个算法活动阶段考虑算法合规问题,也有助于帮助执法机关监督算法活动。

  第二,算法应用型风险的治理覆盖了算法运行的全生命周期。算法既是科学技术,也是赋能手段,其除了具备科技固有的风险之外,也因在商业和公共事业领域的嵌入式应用,对源于工业时代立法模式和治理模式不断冲击,引发了诸多治理痛点。在应用环节,我们也要贯彻程序性控制。但算法应用有着不同于算法研发的特殊性:算法应用直接作用于算法相对人。算法应用将影响算法相对人的合法权益——算法针对算法相对人的诉求做出决定。为了解决应用型风险,《规定》针对未成年人、老年人、劳动者和大数据杀熟等场景,分别配置相应的行为规则(第19条至第21条)。为了实现自下而上的算法治理,《规定》还通过权利路径,赋予个人对抗算法决策的权利。

  《规定》第17条第1款规定:“算法推荐服务提供者应当向用户提供不针对其个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项。用户选择关闭算法推荐服务的,算法推荐服务提供者应当立即停止提供相关服务。”相较于《个人信息保护法》第24条第2款的规定,本条进一步明确规定了算法应用拒绝权。

  此外,第17条第2款规定:“算法推荐服务提供者应当向用户提供选择或者删除用于算法推荐服务的针对其个人特征的用户标签的功能。”该条规定为我国首创,能够更全面地保护算法相对人的利益。算法相对人可能并不是要求算法使用人停止推荐服务,而是禁止推定特定类型的服务。通过赋予算法相对人删除标签的权利,能够更全面的满足用户的要求。

  同时,《规定》第17条第3款还规定:“算法推荐服务提供者应用算法对用户权益造成重大影响的,应当依法予以说明并承担相应责任。”比如,在动态定价当中,如果推荐给用户的价格偏高,可能构成对用户权益的重大影响。用户可以要求算法推荐服务提供者给予说明。如果构成侵犯民事权益的,算法推荐服务提供者应根据法律规定承担相应责任。

  算法风险的全流程治理,在“风险-规制”框架下寻找新的平衡点和组合方式。算法在本质上是处理数据的代码,是一项应用科学技术。但技术并非中立,尤其是当算法处理的不是“物”、而是“个人信息”时,算法活动就兼具社会活动属性,内涵伦理和社会风险。因此,算法规范难题部分来源于科技的专业性和工具性,部分来源于应用场景当中的价值复杂性。《规定》针对科技风险与应用风险设计规则,在“风险-规制”框架下创设了算法规范的中国方案。

  (作者:林洹民,浙江大学光华法学院讲师,工业与信息化法治研究院研究员)

(责任编辑:年巍)

查看余下全文