当前位置     首页 > 滚动 > 正文
中经搜索

“算法要向善”选择背后的伦理博弈

2020年12月14日 07:09   来源:光明日报   方师师

  即将过去的2020年似乎经历了一个“加速社会”的中场休息,但种种迹象表明,这并没有暂缓数字智能服务成为人们日常生活的一种方式。健康码、点外卖、视频会议成为工作生活“三件套”,各种基于数字化、信息化和智能化的服务应用快速入场,社会在技术与资本的双重博弈下正经历结构转型。

  这种转型呈现出一种“重组”的力量,将现有的时间空间重新切割,再以一种“光电方式”重新拟定节奏、划定规则、做出决策。线性时间被打碎,信息的“精准推荐”是一种“算法时间”,它调整信息的呈现序列,插入合适的节点,指出什么才是“适合你的内容”,而不在意“真正的时间”。以算法为核心生产逻辑的数字平台,作为社会行动网络中的主导力量,正在整合性地协调社会系统中的多元参与,通过设置代码规则,进行算法管理,规训的颗粒度被逐层细化,渗透进社会的毛细血管。算法社会的结构转型正呈现出3个鲜明的趋势。

  一种新的“平台速度”正在形成。麦克·沃尔什在《算法领导者:当机器比你聪明时如何变聪明》一书中描述了一种“亚马逊步速”,这是一种“介于行走和慢跑之间的速度”,而在亚马逊,员工们必须按照这个节奏来工作。与之类似,我们看到了“困在算法里”的外卖平台骑手们,面对不断压缩的订单送达时间,他们没有选择,只能遵循算法的设计逻辑,看着手机上一条直线的数字地图,在现实的道路上“与死神赛跑,和交警较劲,和红灯做朋友”。平台速度是一种时间节奏,集中体现着平台规则和算法支配下的统一性、规划性和标准性,而且蕴含着一种肤浅的消费哲学,代价就是将劳动者的主体性、情感性和立体感隐藏起来,这也助推了平台算法所带来的社会不平等。

  “人脸识别”或将重新划定个体身份边界。疫情期间,人脸识别作为社会监测技术助力公共防疫,但是强制“刷脸”、事后“丢脸”的问题也暴露出来。在一些小区,人脸识别成为居民出入的唯一验证方式,而一转眼,在一些黑灰产平台上,据说两块钱就可以买到千张人脸照片。人脸识别是一种“无目光的注视”,人脸识别的准确性高度依赖数据、算法和算力,如果操作不当,泄露出去的面部照片可被用来训练深度伪造,欺骗识别系统,冒充个人身份,恶搞他人隐私,持续给个体带来经济风险和身份困扰,造成社会秩序混乱。

  “算法鸿沟”逐渐成形并拉大社会距离。算法的逻辑机械且强势,而如果社会的协调机制过分滞后,那么则会形成新的“算法鸿沟”与社会歧视。以往的知识鸿沟、数字鸿沟更多的是由于社会结构中的教育程度、年龄层次、经济地位等要素使得社会资源分配不均,而“算法鸿沟”则有可能在分配制度的上游,通过人口数据、用户画像、使用习惯、社交关系等先期就预置了鸿沟。而随着算法回还往返于社会与系统之间,那些有机会获得工作经验、拥有学习机会、算法素养较高的群体,同那些缺少机会、相对弱势的群体之间的差距将不断拉大。老龄人口、残障人士、低收入群体可能会陷入新一轮的“算法陷阱”,行踪羞辱、健康码歧视等问题则随时可能落到每一个普通人身上。而这样的差距经年累月沉积,将加重阶层固化,形成算法特权和垄断力量。

  去年4月,《自然》杂志上刊登了一篇研究性的综述,指出未来将是一个“算法无所不在”社会:自动化的新闻推荐、算法辅助法官判案、无人驾驶汽车、针对个体的差别化定价等,都将无缝接入我们的生活。如果以现在的发展态势来看,这个“未来”已来。

  如同“药”具有两面性,算法在摧枯拉朽急速推进社会进步的同时,也暴露很多问题。这些问题不仅是一个技术问题,更是一个系统问题和社会问题。算法社会结构转型的特殊性在于,这是一种行动的“再现”:算法没有善恶,但绝非中立。算法要向善,因为所有围绕算法进行的协作都是社会再现,而未来的方向在每一个积极的主体手中。

  我们已经看到了这样的努力。就在前几日,中共中央印发《法治社会建设实施纲要(2020—2025年)》,其中明确提出要制定完善对算法推荐、深度伪造等新技术应用的规范管理办法。10月,杭州市人民代表大会常务委员会发布的《杭州市物业管理条例(修订草案)》有望成为国内首部明确写入人脸识别禁止性条款的地方性法规;11月23日,国内“人脸识别第一案”宣判,未经当事人同意的“强制刷脸”被驳回。关注平台外卖员的生存状态和阶层流动机制,为老年人、特定身份群体打造友好的数字生活环境,对平台滥用市场支配地位、进行差别性对待等不合规问题进行监管治理等,都是对算法社会中可能会出现的结构性问题的“纠偏”。

  我们在见证算法改变社会结构的同时,也要看到这种“公共关涉”算法是一种社会机制,涉及多种社会要素和力量。要使得这种社会机制能够朝向更加具有社会保障、社会共情、公共向善的方向推进,则需要建立更为完善的监督、协商与支撑体系。

  (作者:方师师,系上海社会科学院新闻研究所助理研究员)

(责任编辑:年巍)

分享到:
延伸阅读
中国经济网版权及免责声明:
1、凡本网注明“来源:中国经济网” 或“来源:经济日报-中国经济网”的所有作品,版权均属于
  中国经济网(本网另有声明的除外);未经本网授权,任何单位及个人不得转载、摘编或以其它
  方式使用上述作品;已经与本网签署相关授权使用协议的单位及个人,应注意该等作品中是否有
  相应的授权使用限制声明,不得违反该等限制声明,且在授权范围内使用时应注明“来源:中国
  经济网”或“来源:经济日报-中国经济网”。违反前述声明者,本网将追究其相关法律责任。
2、本网所有的图片作品中,即使注明“来源:中国经济网”及/或标有“中国经济网(www.ce.cn)”
  水印,但并不代表本网对该等图片作品享有许可他人使用的权利;已经与本网签署相关授权使用
  协议的单位及个人,仅有权在授权范围内使用该等图片中明确注明“中国经济网记者XXX摄”或
  “经济日报社-中国经济网记者XXX摄”的图片作品,否则,一切不利后果自行承担。
3、凡本网注明 “来源:XXX(非中国经济网)” 的作品,均转载自其它媒体,转载目的在于传递更
  多信息,并不代表本网赞同其观点和对其真实性负责。
4、如因作品内容、版权和其它问题需要同本网联系的,请在30日内进行。

※ 网站总机:010-81025111 有关作品版权事宜请联系:010-81025135 邮箱:

精彩图片
关于经济日报社关于中国经济网网站大事记网站诚聘版权声明互联网视听节目服务自律公约广告服务友情链接纠错邮箱
经济日报报业集团法律顾问:北京市鑫诺律师事务所    中国经济网法律顾问:北京刚平律师事务所
中国经济网 版权所有  互联网新闻信息服务许可证(10120170008)   网络传播视听节目许可证(0107190)  京ICP备18036557号

京公网安备 11010202009785号

“算法要向善”选择背后的伦理博弈

2020-12-14 07:09 来源:光明日报 方师师

  即将过去的2020年似乎经历了一个“加速社会”的中场休息,但种种迹象表明,这并没有暂缓数字智能服务成为人们日常生活的一种方式。健康码、点外卖、视频会议成为工作生活“三件套”,各种基于数字化、信息化和智能化的服务应用快速入场,社会在技术与资本的双重博弈下正经历结构转型。

  这种转型呈现出一种“重组”的力量,将现有的时间空间重新切割,再以一种“光电方式”重新拟定节奏、划定规则、做出决策。线性时间被打碎,信息的“精准推荐”是一种“算法时间”,它调整信息的呈现序列,插入合适的节点,指出什么才是“适合你的内容”,而不在意“真正的时间”。以算法为核心生产逻辑的数字平台,作为社会行动网络中的主导力量,正在整合性地协调社会系统中的多元参与,通过设置代码规则,进行算法管理,规训的颗粒度被逐层细化,渗透进社会的毛细血管。算法社会的结构转型正呈现出3个鲜明的趋势。

  一种新的“平台速度”正在形成。麦克·沃尔什在《算法领导者:当机器比你聪明时如何变聪明》一书中描述了一种“亚马逊步速”,这是一种“介于行走和慢跑之间的速度”,而在亚马逊,员工们必须按照这个节奏来工作。与之类似,我们看到了“困在算法里”的外卖平台骑手们,面对不断压缩的订单送达时间,他们没有选择,只能遵循算法的设计逻辑,看着手机上一条直线的数字地图,在现实的道路上“与死神赛跑,和交警较劲,和红灯做朋友”。平台速度是一种时间节奏,集中体现着平台规则和算法支配下的统一性、规划性和标准性,而且蕴含着一种肤浅的消费哲学,代价就是将劳动者的主体性、情感性和立体感隐藏起来,这也助推了平台算法所带来的社会不平等。

  “人脸识别”或将重新划定个体身份边界。疫情期间,人脸识别作为社会监测技术助力公共防疫,但是强制“刷脸”、事后“丢脸”的问题也暴露出来。在一些小区,人脸识别成为居民出入的唯一验证方式,而一转眼,在一些黑灰产平台上,据说两块钱就可以买到千张人脸照片。人脸识别是一种“无目光的注视”,人脸识别的准确性高度依赖数据、算法和算力,如果操作不当,泄露出去的面部照片可被用来训练深度伪造,欺骗识别系统,冒充个人身份,恶搞他人隐私,持续给个体带来经济风险和身份困扰,造成社会秩序混乱。

  “算法鸿沟”逐渐成形并拉大社会距离。算法的逻辑机械且强势,而如果社会的协调机制过分滞后,那么则会形成新的“算法鸿沟”与社会歧视。以往的知识鸿沟、数字鸿沟更多的是由于社会结构中的教育程度、年龄层次、经济地位等要素使得社会资源分配不均,而“算法鸿沟”则有可能在分配制度的上游,通过人口数据、用户画像、使用习惯、社交关系等先期就预置了鸿沟。而随着算法回还往返于社会与系统之间,那些有机会获得工作经验、拥有学习机会、算法素养较高的群体,同那些缺少机会、相对弱势的群体之间的差距将不断拉大。老龄人口、残障人士、低收入群体可能会陷入新一轮的“算法陷阱”,行踪羞辱、健康码歧视等问题则随时可能落到每一个普通人身上。而这样的差距经年累月沉积,将加重阶层固化,形成算法特权和垄断力量。

  去年4月,《自然》杂志上刊登了一篇研究性的综述,指出未来将是一个“算法无所不在”社会:自动化的新闻推荐、算法辅助法官判案、无人驾驶汽车、针对个体的差别化定价等,都将无缝接入我们的生活。如果以现在的发展态势来看,这个“未来”已来。

  如同“药”具有两面性,算法在摧枯拉朽急速推进社会进步的同时,也暴露很多问题。这些问题不仅是一个技术问题,更是一个系统问题和社会问题。算法社会结构转型的特殊性在于,这是一种行动的“再现”:算法没有善恶,但绝非中立。算法要向善,因为所有围绕算法进行的协作都是社会再现,而未来的方向在每一个积极的主体手中。

  我们已经看到了这样的努力。就在前几日,中共中央印发《法治社会建设实施纲要(2020—2025年)》,其中明确提出要制定完善对算法推荐、深度伪造等新技术应用的规范管理办法。10月,杭州市人民代表大会常务委员会发布的《杭州市物业管理条例(修订草案)》有望成为国内首部明确写入人脸识别禁止性条款的地方性法规;11月23日,国内“人脸识别第一案”宣判,未经当事人同意的“强制刷脸”被驳回。关注平台外卖员的生存状态和阶层流动机制,为老年人、特定身份群体打造友好的数字生活环境,对平台滥用市场支配地位、进行差别性对待等不合规问题进行监管治理等,都是对算法社会中可能会出现的结构性问题的“纠偏”。

  我们在见证算法改变社会结构的同时,也要看到这种“公共关涉”算法是一种社会机制,涉及多种社会要素和力量。要使得这种社会机制能够朝向更加具有社会保障、社会共情、公共向善的方向推进,则需要建立更为完善的监督、协商与支撑体系。

  (作者:方师师,系上海社会科学院新闻研究所助理研究员)

(责任编辑:年巍)

查看余下全文