当前位置     首页 > 滚动 > 正文
中经搜索

程啸:谨防深度伪造技术侵害公众利益

2021年03月24日 07:56   来源:法治日报   

  近段时间以来,一款来自国外的Avatarify软件在朋友圈、短视频平台上迅速走红。用户只要在该软件中上传一张照片,照片上的任何人就可以扭动脖子唱一曲魔性十足的“蚂蚁呀嘿”。这不由使公众联想起2019年国内红极一时的换脸软件ZAO。这些软件都涉及深度伪造技术。

  就在近日,国家网信部门和公安部门依法约谈映客、小米等11家互联网企业,督促其加强对语音社交软件和涉深度伪造技术的互联网新技术新应用安全评估,完善风险防控机制和措施,并对发现的安全隐患及时采取有效整改措施。这也让更多的公众意识到深度伪造技术所蕴含的安全隐患。

  “深度伪造”是随着现代人工智能技术(尤其是语音模拟、人脸合成、视频生成等)的发展而出现的技术,是计算机“深度学习”和“伪造”组合的产物。简单地说,就是通过人工智能技术来制作虚假的视频或音频,或者对原本真实的视频或音频的内容进行修改,从而呈现与真相不符合的状态。

  可以说,在深度伪造技术面前,传统的“眼见为实”“有图有真相”的说法会变得不堪一击,亲眼所见和亲耳所听的东西都可能是完全子虚乌有的。深度伪造技术的滥用会对公众的合法权益造成损害,破坏社会秩序、经济秩序和政治秩序,损害社会公共利益乃至危害国家安全,包括我国在内的许多国家的法律都对之作出规范,例如换脸软件ZAO上线不久,就被工信部约谈。

  目前我国尚未发生因深度伪造技术而产生侵权纠纷案件,但实践中,一些违法犯罪分子利用深度伪造技术侵害他人人身财产权益的情形屡见不鲜。从被侵害的民事权益的类型看,这些侵害行为包括以下几种:

  首先,利用深度伪造技术,实现移花接木,会对他人名誉权构成侵害。我国民法典第1024条规定:“民事主体享有名誉权。任何组织或者个人不得以侮辱、诽谤等方式侵害他人的名誉权。”制作虚假色情视频,是深度伪造技术最早也是最常见的非法运用方式之一。利用该技术能将一些知名歌星、影星等公众人物的脸移转到色情明星身上,伪造逼真的色情场景。这些虚假色情视频一经传播,公众可能真假莫辨,从而导致受害人的名誉严重受损。即便不是用于制作色情视频,深度伪造技术也完全可以通过制造虚假的视频或音频,侵害自然人、法人或非法人组织的名誉权,进而给其造成财产损失以及精神损害。

  其次,深度伪造技术会构成对自然人肖像权的侵害。运用深度伪造技术,可以实现所谓的“换脸”,即将某个自然人的脸部形象逼真地移植到他人身上,从而构成对该自然人肖像权的侵害。我国在编纂民法典时,有单位提出,利用信息技术手段“深度伪造”他人的肖像、声音,不仅侵害自然人的人格权益,严重的还可能造成恶劣的社会影响,危害国家安全和社会公共利益,建议法律对深度伪造技术带来的“换脸”等问题予以回应。后来民法典在制定时采纳了这一意见——第1019条第1款明确规定,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。

  再次,深度伪造技术为违法犯罪分子实施诈骗等行为提供了便利。实践中,一些犯罪分子利用深度伪造技术,非常逼真地克隆出被害人的近亲属、朋友或同事的声音,然后轻易地骗取巨额钱财。据报道,2019年3月,就有犯罪分子使用深度伪造技术成功模仿了英国某能源公司的母公司CEO的声音,从而诈骗了22万欧元。从民法角度说,这种行为侵害了他人财产权,而从刑法角度讲则可能构成诈骗等犯罪,均应依法承担法律责任。

  最后,在深度伪造技术利用的过程中,还往往会涉及非法收集、买卖个人信息的违法行为。我国民法典、网络安全法等法律对于个人信息保护作出明确规定,人的脸部特征信息就属于生物识别信息。而深度伪造技术能够应用的一个重要前提,就是要大量处理包括生物识别信息在内的个人信息。因此,深度伪造技术还会侵害自然人的个人信息权益。

  总之,由于目前业界还没有相关标准对这些用深度伪造技术制作出来的假视频、假音频进行检测,因此,公众因深度伪造技术遭受侵害时,往往很难加以证明并得到有效救济。这就迫切需要从民法、刑法、行政法等多个角度对于深度伪造技术进行严格规范,从而充分保护广大民事主体的合法权益。此次两部门约谈一些互联网企业,要求其对这一技术进行安全评估,也旨在督促企业履行主体责任,实现有效的事先风险管理,这也会为以后从法律角度进行规制积累有益经验。

(作者系清华大学法学院副院长、教授)

(责任编辑:臧梦雅)

分享到:
延伸阅读
中国经济网版权及免责声明:
1、凡本网注明“来源:中国经济网” 或“来源:经济日报-中国经济网”的所有作品,版权均属于
  中国经济网(本网另有声明的除外);未经本网授权,任何单位及个人不得转载、摘编或以其它
  方式使用上述作品;已经与本网签署相关授权使用协议的单位及个人,应注意该等作品中是否有
  相应的授权使用限制声明,不得违反该等限制声明,且在授权范围内使用时应注明“来源:中国
  经济网”或“来源:经济日报-中国经济网”。违反前述声明者,本网将追究其相关法律责任。
2、本网所有的图片作品中,即使注明“来源:中国经济网”及/或标有“中国经济网(www.ce.cn)”
  水印,但并不代表本网对该等图片作品享有许可他人使用的权利;已经与本网签署相关授权使用
  协议的单位及个人,仅有权在授权范围内使用该等图片中明确注明“中国经济网记者XXX摄”或
  “经济日报社-中国经济网记者XXX摄”的图片作品,否则,一切不利后果自行承担。
3、凡本网注明 “来源:XXX(非中国经济网)” 的作品,均转载自其它媒体,转载目的在于传递更
  多信息,并不代表本网赞同其观点和对其真实性负责。
4、如因作品内容、版权和其它问题需要同本网联系的,请在30日内进行。

※ 网站总机:010-81025111 有关作品版权事宜请联系:010-81025135 邮箱:

精彩图片
关于经济日报社关于中国经济网网站大事记网站诚聘版权声明互联网视听节目服务自律公约广告服务友情链接纠错邮箱
经济日报报业集团法律顾问:北京市鑫诺律师事务所    中国经济网法律顾问:北京刚平律师事务所
中国经济网 版权所有  互联网新闻信息服务许可证(10120170008)   网络传播视听节目许可证(0107190)  京ICP备18036557号

京公网安备 11010202009785号

程啸:谨防深度伪造技术侵害公众利益

2021-03-24 07:56 来源:法治日报

  近段时间以来,一款来自国外的Avatarify软件在朋友圈、短视频平台上迅速走红。用户只要在该软件中上传一张照片,照片上的任何人就可以扭动脖子唱一曲魔性十足的“蚂蚁呀嘿”。这不由使公众联想起2019年国内红极一时的换脸软件ZAO。这些软件都涉及深度伪造技术。

  就在近日,国家网信部门和公安部门依法约谈映客、小米等11家互联网企业,督促其加强对语音社交软件和涉深度伪造技术的互联网新技术新应用安全评估,完善风险防控机制和措施,并对发现的安全隐患及时采取有效整改措施。这也让更多的公众意识到深度伪造技术所蕴含的安全隐患。

  “深度伪造”是随着现代人工智能技术(尤其是语音模拟、人脸合成、视频生成等)的发展而出现的技术,是计算机“深度学习”和“伪造”组合的产物。简单地说,就是通过人工智能技术来制作虚假的视频或音频,或者对原本真实的视频或音频的内容进行修改,从而呈现与真相不符合的状态。

  可以说,在深度伪造技术面前,传统的“眼见为实”“有图有真相”的说法会变得不堪一击,亲眼所见和亲耳所听的东西都可能是完全子虚乌有的。深度伪造技术的滥用会对公众的合法权益造成损害,破坏社会秩序、经济秩序和政治秩序,损害社会公共利益乃至危害国家安全,包括我国在内的许多国家的法律都对之作出规范,例如换脸软件ZAO上线不久,就被工信部约谈。

  目前我国尚未发生因深度伪造技术而产生侵权纠纷案件,但实践中,一些违法犯罪分子利用深度伪造技术侵害他人人身财产权益的情形屡见不鲜。从被侵害的民事权益的类型看,这些侵害行为包括以下几种:

  首先,利用深度伪造技术,实现移花接木,会对他人名誉权构成侵害。我国民法典第1024条规定:“民事主体享有名誉权。任何组织或者个人不得以侮辱、诽谤等方式侵害他人的名誉权。”制作虚假色情视频,是深度伪造技术最早也是最常见的非法运用方式之一。利用该技术能将一些知名歌星、影星等公众人物的脸移转到色情明星身上,伪造逼真的色情场景。这些虚假色情视频一经传播,公众可能真假莫辨,从而导致受害人的名誉严重受损。即便不是用于制作色情视频,深度伪造技术也完全可以通过制造虚假的视频或音频,侵害自然人、法人或非法人组织的名誉权,进而给其造成财产损失以及精神损害。

  其次,深度伪造技术会构成对自然人肖像权的侵害。运用深度伪造技术,可以实现所谓的“换脸”,即将某个自然人的脸部形象逼真地移植到他人身上,从而构成对该自然人肖像权的侵害。我国在编纂民法典时,有单位提出,利用信息技术手段“深度伪造”他人的肖像、声音,不仅侵害自然人的人格权益,严重的还可能造成恶劣的社会影响,危害国家安全和社会公共利益,建议法律对深度伪造技术带来的“换脸”等问题予以回应。后来民法典在制定时采纳了这一意见——第1019条第1款明确规定,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。

  再次,深度伪造技术为违法犯罪分子实施诈骗等行为提供了便利。实践中,一些犯罪分子利用深度伪造技术,非常逼真地克隆出被害人的近亲属、朋友或同事的声音,然后轻易地骗取巨额钱财。据报道,2019年3月,就有犯罪分子使用深度伪造技术成功模仿了英国某能源公司的母公司CEO的声音,从而诈骗了22万欧元。从民法角度说,这种行为侵害了他人财产权,而从刑法角度讲则可能构成诈骗等犯罪,均应依法承担法律责任。

  最后,在深度伪造技术利用的过程中,还往往会涉及非法收集、买卖个人信息的违法行为。我国民法典、网络安全法等法律对于个人信息保护作出明确规定,人的脸部特征信息就属于生物识别信息。而深度伪造技术能够应用的一个重要前提,就是要大量处理包括生物识别信息在内的个人信息。因此,深度伪造技术还会侵害自然人的个人信息权益。

  总之,由于目前业界还没有相关标准对这些用深度伪造技术制作出来的假视频、假音频进行检测,因此,公众因深度伪造技术遭受侵害时,往往很难加以证明并得到有效救济。这就迫切需要从民法、刑法、行政法等多个角度对于深度伪造技术进行严格规范,从而充分保护广大民事主体的合法权益。此次两部门约谈一些互联网企业,要求其对这一技术进行安全评估,也旨在督促企业履行主体责任,实现有效的事先风险管理,这也会为以后从法律角度进行规制积累有益经验。

(作者系清华大学法学院副院长、教授)

(责任编辑:臧梦雅)

查看余下全文