数智化时代,如何治理AI谣言?

2025-03-10 06:58 来源:南方日报

  在今年全国两会上,AI成为热门话题。

  全国人大代表、小米集团董事长雷军,全国人大代表、科大讯飞董事长刘庆峰,全国政协委员、360集团创始人周鸿祎,全国政协委员、中国煤矿文工团团长靳东等纷纷为AI治理建言献策,不约而同谈到治理AI谣言问题。

  数智化时代,信息的生成、呈现和分发被技术所重塑,AI谣言呈现出哪些新特点?背后的生成逻辑是什么?又该如何精准施策、有效应对?厘清这些问题,必要且紧迫。

  原因无它,AI向“善”首先是向“真”。

  (一)

  谣言,古已有之,且随着技术演进不断迭代升级。

  即便只将镜头聚焦到近十年,也足以感受其中的变化:从“有图有真相”到“有视频有真相”,再到“有直播才有真相”……关于“真相”的模态不断“升维”,“深度伪造”却也在加速渗透,“眼见为实”被彻底改写。

  单是浏览近期新闻报道,“智能造谣”的“杀伤力”就可见一斑——

  几天前,发现被一账号借助AI生成视频假冒,刘晓庆本人震惊发声:“画面是我,声音很像我,但不是我!这是怎么做到的?”

  今年初,西藏日喀则地震发生后,一张“地震废墟中戴帽小孩”的图片被广为传播,牵动了无数网友的心,但很快就被打假——AI生成的。

  尽管谣言成因复杂,但终归有迹可循。

  除了有人为了寻求刺激、显示自己“消息灵通”、唯恐天下不乱之外,大部分谣言都是利益在作祟,或为了博取眼球、赚取流量,或为了制造话题、敲诈勒索。

  (二)

  谣言最大的硬伤,无疑是事实本身。

  然而,在情绪先行的“后真相”语境下,只要精准击中焦虑、恐惧等“人性的弱点”,谣言同样可以大肆传播,即便多次澄清,却依然有人相信。“伪科学”谣言就很典型。

  被全方位“赋能”的AI谣言,其“穿透力”更是开启了“倍增模式”。据南都大数据研究院不完全统计,2024年搜索热度较高的50个国内AI风险相关舆情案例中,超1/5与AI造谣有关。

  从内容生成上看,用户仅需输入简单的关键词,AI软件便可根据当下热点,抓取相关素材,定制生产内容,AI并不对内容“真假”负责。

  2024年,南昌警方在查处的一起传播谣言虚构事实扰乱公共秩序案中发现,不法分子通过AI软件生成内容的方式,短时间内生成了大量文章,最高峰一天能生成4000篇至7000篇,初步估算每天的收入在1万元以上。

  谣言之害,有目共睹。它可能摧毁个人名誉,扰乱营商环境,冲击经济秩序,影响公共决策,引发社会恐慌……凡此种种,不胜枚举。

  当“开局一张图,内容全靠编”可以批量操作,事实核查通常要经过评估信源、交叉印证等一系列严谨程序;当造假的工具唾手可得,许多信息不再是“一眼假”……

  可以想见,这场不对等的技术攻防,会耗费多少治理成本,给社会信任带来多少负面影响?

  (三)

  人机交互,利弊同在。

  更深层次地看,AI谣言的存在,正是一种数字化生存的隐喻。正如有学者表示,“我们正面临一场前所未有的认知战争。”

  当人工智能不只是工具,而是变成像水和电一般的存在,再继续沿用传统的治理框架,恐怕很难奏效,必须以更具前瞻性和系统性的视角,构建多方协同共治的生态系统。

  擦亮法治利剑,以“秩序正义”捍卫“人间真实”。

  目前,《民法典》《网络安全法》《治安管理处罚法》等都有针对网络谣言的相关规定。关于深度合成服务的管理规定也在陆续出台和完善。但部分条文不够清晰,处罚力度也不够,且存在一定的空白,需与时俱进,提高针对性和可操作性,进一步强化震慑作用。

  全国两会上,雷军基于自身经历,提出加强“AI换脸拟声”违法侵权重灾区治理;靳东表示,“喜爱我的观众被AI骗得很惨”,建议就AI换脸立法。还有代表建议,企业应建立数据分级机制,防止恶意利用,进一步完善生成式AI视频传播管理机制。这些建议直指现实问题,反映了舆论关切。

  筑牢技术后盾,用“先进道法”打败“作恶魔法”。

  前不久,中央网信办发布2025年“清朗”系列专项行动整治重点,明确提出整治AI技术滥用乱象,突出AI技术管理和信息内容管理。目前,针对恶意“深度伪造”的监测和溯源,一些企业、科研机构与政府密切配合,技术反制谣言的“工具箱”不断上新。各平台理应发挥自身优势,加固“技术堤坝”,见招拆招、各个击破,绝不能应付了事。

  不少人还注意到,大模型有时为了“取悦”用户,甚至会主动“脑补”论据,造成信息污染,这便是和谣言生产相关的“AI幻觉”。如何解决大模型应用安全问题、提升生成内容可靠性?从周鸿祎建议“以模制模”,到刘庆峰提出构建安全可信数据标签体系,这些业内声音值得重视。

  提升AI素养,以“人类之光”照亮“谣言黑箱”。

  每一次大脑的“躺平”,都可能是对谬误的“放过”;每一次“随手”的一转,都可能是对讹传的“加热”。当技术不断狂飙突进,思考就该“多走一步”;当事实变得不易分辨,判断就该“放慢一拍”。

  在乱云飞渡的网络世界中,多渠道核实,叩问常识和逻辑,应是一种基本的自觉。这也意味着,“权威信源”的价值愈发凸显,作为“信息把关人”的主流媒体更是责无旁贷。

  “道听而涂说,德之弃也。”当历史的指针拨向信息大爆炸的今天,两千多年前孔子的谆谆之言,依然发人深省。

查看余下全文
(责任编辑:年巍)
当前位置     首页 > 滚动 > 正文
中经搜索

数智化时代,如何治理AI谣言?

2025年03月10日 06:58   来源:南方日报   吴三川

  在今年全国两会上,AI成为热门话题。

  全国人大代表、小米集团董事长雷军,全国人大代表、科大讯飞董事长刘庆峰,全国政协委员、360集团创始人周鸿祎,全国政协委员、中国煤矿文工团团长靳东等纷纷为AI治理建言献策,不约而同谈到治理AI谣言问题。

  数智化时代,信息的生成、呈现和分发被技术所重塑,AI谣言呈现出哪些新特点?背后的生成逻辑是什么?又该如何精准施策、有效应对?厘清这些问题,必要且紧迫。

  原因无它,AI向“善”首先是向“真”。

  (一)

  谣言,古已有之,且随着技术演进不断迭代升级。

  即便只将镜头聚焦到近十年,也足以感受其中的变化:从“有图有真相”到“有视频有真相”,再到“有直播才有真相”……关于“真相”的模态不断“升维”,“深度伪造”却也在加速渗透,“眼见为实”被彻底改写。

  单是浏览近期新闻报道,“智能造谣”的“杀伤力”就可见一斑——

  几天前,发现被一账号借助AI生成视频假冒,刘晓庆本人震惊发声:“画面是我,声音很像我,但不是我!这是怎么做到的?”

  今年初,西藏日喀则地震发生后,一张“地震废墟中戴帽小孩”的图片被广为传播,牵动了无数网友的心,但很快就被打假——AI生成的。

  尽管谣言成因复杂,但终归有迹可循。

  除了有人为了寻求刺激、显示自己“消息灵通”、唯恐天下不乱之外,大部分谣言都是利益在作祟,或为了博取眼球、赚取流量,或为了制造话题、敲诈勒索。

  (二)

  谣言最大的硬伤,无疑是事实本身。

  然而,在情绪先行的“后真相”语境下,只要精准击中焦虑、恐惧等“人性的弱点”,谣言同样可以大肆传播,即便多次澄清,却依然有人相信。“伪科学”谣言就很典型。

  被全方位“赋能”的AI谣言,其“穿透力”更是开启了“倍增模式”。据南都大数据研究院不完全统计,2024年搜索热度较高的50个国内AI风险相关舆情案例中,超1/5与AI造谣有关。

  从内容生成上看,用户仅需输入简单的关键词,AI软件便可根据当下热点,抓取相关素材,定制生产内容,AI并不对内容“真假”负责。

  2024年,南昌警方在查处的一起传播谣言虚构事实扰乱公共秩序案中发现,不法分子通过AI软件生成内容的方式,短时间内生成了大量文章,最高峰一天能生成4000篇至7000篇,初步估算每天的收入在1万元以上。

  谣言之害,有目共睹。它可能摧毁个人名誉,扰乱营商环境,冲击经济秩序,影响公共决策,引发社会恐慌……凡此种种,不胜枚举。

  当“开局一张图,内容全靠编”可以批量操作,事实核查通常要经过评估信源、交叉印证等一系列严谨程序;当造假的工具唾手可得,许多信息不再是“一眼假”……

  可以想见,这场不对等的技术攻防,会耗费多少治理成本,给社会信任带来多少负面影响?

  (三)

  人机交互,利弊同在。

  更深层次地看,AI谣言的存在,正是一种数字化生存的隐喻。正如有学者表示,“我们正面临一场前所未有的认知战争。”

  当人工智能不只是工具,而是变成像水和电一般的存在,再继续沿用传统的治理框架,恐怕很难奏效,必须以更具前瞻性和系统性的视角,构建多方协同共治的生态系统。

  擦亮法治利剑,以“秩序正义”捍卫“人间真实”。

  目前,《民法典》《网络安全法》《治安管理处罚法》等都有针对网络谣言的相关规定。关于深度合成服务的管理规定也在陆续出台和完善。但部分条文不够清晰,处罚力度也不够,且存在一定的空白,需与时俱进,提高针对性和可操作性,进一步强化震慑作用。

  全国两会上,雷军基于自身经历,提出加强“AI换脸拟声”违法侵权重灾区治理;靳东表示,“喜爱我的观众被AI骗得很惨”,建议就AI换脸立法。还有代表建议,企业应建立数据分级机制,防止恶意利用,进一步完善生成式AI视频传播管理机制。这些建议直指现实问题,反映了舆论关切。

  筑牢技术后盾,用“先进道法”打败“作恶魔法”。

  前不久,中央网信办发布2025年“清朗”系列专项行动整治重点,明确提出整治AI技术滥用乱象,突出AI技术管理和信息内容管理。目前,针对恶意“深度伪造”的监测和溯源,一些企业、科研机构与政府密切配合,技术反制谣言的“工具箱”不断上新。各平台理应发挥自身优势,加固“技术堤坝”,见招拆招、各个击破,绝不能应付了事。

  不少人还注意到,大模型有时为了“取悦”用户,甚至会主动“脑补”论据,造成信息污染,这便是和谣言生产相关的“AI幻觉”。如何解决大模型应用安全问题、提升生成内容可靠性?从周鸿祎建议“以模制模”,到刘庆峰提出构建安全可信数据标签体系,这些业内声音值得重视。

  提升AI素养,以“人类之光”照亮“谣言黑箱”。

  每一次大脑的“躺平”,都可能是对谬误的“放过”;每一次“随手”的一转,都可能是对讹传的“加热”。当技术不断狂飙突进,思考就该“多走一步”;当事实变得不易分辨,判断就该“放慢一拍”。

  在乱云飞渡的网络世界中,多渠道核实,叩问常识和逻辑,应是一种基本的自觉。这也意味着,“权威信源”的价值愈发凸显,作为“信息把关人”的主流媒体更是责无旁贷。

  “道听而涂说,德之弃也。”当历史的指针拨向信息大爆炸的今天,两千多年前孔子的谆谆之言,依然发人深省。

(责任编辑:年巍)

分享到:
中国经济网版权及免责声明:
1、凡本网注明“来源:中国经济网” 或“来源:经济日报-中国经济网”的所有作品,版权均属于
  中国经济网(本网另有声明的除外);未经本网授权,任何单位及个人不得转载、摘编或以其它
  方式使用上述作品;已经与本网签署相关授权使用协议的单位及个人,应注意该等作品中是否有
  相应的授权使用限制声明,不得违反该等限制声明,且在授权范围内使用时应注明“来源:中国
  经济网”或“来源:经济日报-中国经济网”。违反前述声明者,本网将追究其相关法律责任。
2、本网所有的图片作品中,即使注明“来源:中国经济网”及/或标有“中国经济网(www.ce.cn)”
  水印,但并不代表本网对该等图片作品享有许可他人使用的权利;已经与本网签署相关授权使用
  协议的单位及个人,仅有权在授权范围内使用该等图片中明确注明“中国经济网记者XXX摄”或
  “经济日报社-中国经济网记者XXX摄”的图片作品,否则,一切不利后果自行承担。
3、凡本网注明 “来源:XXX(非中国经济网)” 的作品,均转载自其它媒体,转载目的在于传递更
  多信息,并不代表本网赞同其观点和对其真实性负责。
4、如因作品内容、版权和其它问题需要同本网联系的,请在30日内进行。

※ 网站总机:010-81025111 有关作品版权事宜请联系:010-81025135 邮箱:

精彩图片
关于经济日报社关于中国经济网网站大事记网站诚聘版权声明互联网视听节目服务自律公约广告服务友情链接纠错邮箱
经济日报报业集团法律顾问:北京市鑫诺律师事务所    中国经济网法律顾问:北京刚平律师事务所
中国经济网 版权所有  互联网新闻信息服务许可证(10120170008)   网络传播视听节目许可证(0107190)  京ICP备18036557号

京公网安备 11010202009785号