核心观点:经济日报-中国经济网评论员子房先生认为,人脸信息的保护显然不能只依靠“头盔”,还需要更健全、更具前瞻性的法律制度。从某种角度来说,只有将公众知情权和选择权作为隐私权保护的前提,大面积的侵权行为才有可能被避免。具体到“放心刷脸”这个话题,就是要确保人们在使用人脸识别技术的时候是自愿的,并且是知道自己的脸正在被识别的。
网上曾流行一句话:这是一个看脸的时代。或许有些人没想到,这句戏言正在慢慢变成现实。“刷脸”签到、“刷脸”支付、“刷脸”进站……近年来,人脸识别技术正走进更为广阔的应用场景,让人们的生活更便利。凡事都有两面性。从AI视频监控进课堂到“人脸识别第一案”,再到一男子“带头盔看房”引发热议,人脸识别技术带来的安全隐患越来越为公众所关切。
人们对人脸识别的疑惑和担忧可以理解,毕竟漏洞是现实存在的。人脸、指纹、虹膜等人类生物特征具有唯一性和不可更改性,这些特征可以更为准确地确定人的身份,但这些数据是如何储存的、储存在哪里、会如何被使用,很大程度上都是“未知数”。如果这些信息被提取后放到互联网上,就不可避免地面临着被复制、伪造、合成和泄露的风险。更为重要的是,普通人对一项项人脸识别应用是否安全,几乎没有任何辨别能力。
“带头盔看房”一事之所以引起关注,就在于人脸识别技术在应用过程中出现了较为明显的越界行为,比如无感抓拍。这意味着,在无人脸识别提醒标识、无工作人员告知、无相关人士授权的情况下,摄像头可以轻松抓取人脸信息。像这样隐性的、不易察觉的使用方式,更让人感到“细思恐极”:还有哪些隐藏的“探头”在暗中收集着我们的个人生物信息?未来某天,它是否会变得无孔不入,以至于我们要活在“楚门的世界”里?
人脸识别技术当然不能被如此使用。针对生物特征信息采集储存,我国已在个人信息安全规范等方面做了具体规定。例如,个人生物特征信息属于敏感信息,要求个人生物识别信息要与个人身份信息分开存储;原则上不应存储原始个人生物识别信息,可采取的措施包括但不限于仅存储摘要信息。《信息安全技术个人信息安全规范》也要求,收集个人敏感信息时,应取得个人信息主体的明示同意。
如今科技发展一日千里,让生活日新月异,而由此带来的风险与挑战,也应当高度重视。人脸信息的保护显然不能只依靠“头盔”,还需要更健全、更具前瞻性的法律制度。从某种角度来说,只有将公众知情权和选择权作为隐私权保护的前提,大面积的侵权行为才有可能被避免。具体到“放心刷脸”这个话题,就是要确保人们在使用人脸识别技术的时候是自愿的,并且是知道自己的脸正在被识别的。
其实,不只是人脸识别技术,还有不少现代“黑科技”,都存在着科技伦理问题。一些高科技企业出于营利本能,在市场诱惑与科技伦理之间,明显更倾向于前者,总是试图快速地将新技术推向应用。技术本身是中性的,究竟用向何处、怎么使用,完全取决于人。技术的工具价值,只有在正确的人文理性、目标价值引导下,才能发挥出最佳功效,实现“科技向善”。(经济日报-中国经济网评论员 子房先生)
经济日报-中国经济网评论理论频道开放投稿,原创评论、理论文章可发至cepl#ce.cn(#改为@)。详见经济日报-中国经济网评论理论频道征稿启事。
相关评论:人脸识别时代,公民应有不“刷脸”的权利
遏制人脸识别滥用 需要法治“刹车”