数智化时代,如何治理AI谣言?

2025-03-10 06:58 来源:南方日报

  在今年全国两会上,AI成为热门话题。

  全国人大代表、小米集团董事长雷军,全国人大代表、科大讯飞董事长刘庆峰,全国政协委员、360集团创始人周鸿祎,全国政协委员、中国煤矿文工团团长靳东等纷纷为AI治理建言献策,不约而同谈到治理AI谣言问题。

  数智化时代,信息的生成、呈现和分发被技术所重塑,AI谣言呈现出哪些新特点?背后的生成逻辑是什么?又该如何精准施策、有效应对?厘清这些问题,必要且紧迫。

  原因无它,AI向“善”首先是向“真”。

  (一)

  谣言,古已有之,且随着技术演进不断迭代升级。

  即便只将镜头聚焦到近十年,也足以感受其中的变化:从“有图有真相”到“有视频有真相”,再到“有直播才有真相”……关于“真相”的模态不断“升维”,“深度伪造”却也在加速渗透,“眼见为实”被彻底改写。

  单是浏览近期新闻报道,“智能造谣”的“杀伤力”就可见一斑——

  几天前,发现被一账号借助AI生成视频假冒,刘晓庆本人震惊发声:“画面是我,声音很像我,但不是我!这是怎么做到的?”

  今年初,西藏日喀则地震发生后,一张“地震废墟中戴帽小孩”的图片被广为传播,牵动了无数网友的心,但很快就被打假——AI生成的。

  尽管谣言成因复杂,但终归有迹可循。

  除了有人为了寻求刺激、显示自己“消息灵通”、唯恐天下不乱之外,大部分谣言都是利益在作祟,或为了博取眼球、赚取流量,或为了制造话题、敲诈勒索。

  (二)

  谣言最大的硬伤,无疑是事实本身。

  然而,在情绪先行的“后真相”语境下,只要精准击中焦虑、恐惧等“人性的弱点”,谣言同样可以大肆传播,即便多次澄清,却依然有人相信。“伪科学”谣言就很典型。

  被全方位“赋能”的AI谣言,其“穿透力”更是开启了“倍增模式”。据南都大数据研究院不完全统计,2024年搜索热度较高的50个国内AI风险相关舆情案例中,超1/5与AI造谣有关。

  从内容生成上看,用户仅需输入简单的关键词,AI软件便可根据当下热点,抓取相关素材,定制生产内容,AI并不对内容“真假”负责。

  2024年,南昌警方在查处的一起传播谣言虚构事实扰乱公共秩序案中发现,不法分子通过AI软件生成内容的方式,短时间内生成了大量文章,最高峰一天能生成4000篇至7000篇,初步估算每天的收入在1万元以上。

  谣言之害,有目共睹。它可能摧毁个人名誉,扰乱营商环境,冲击经济秩序,影响公共决策,引发社会恐慌……凡此种种,不胜枚举。

  当“开局一张图,内容全靠编”可以批量操作,事实核查通常要经过评估信源、交叉印证等一系列严谨程序;当造假的工具唾手可得,许多信息不再是“一眼假”……

  可以想见,这场不对等的技术攻防,会耗费多少治理成本,给社会信任带来多少负面影响?

  (三)

  人机交互,利弊同在。

  更深层次地看,AI谣言的存在,正是一种数字化生存的隐喻。正如有学者表示,“我们正面临一场前所未有的认知战争。”

  当人工智能不只是工具,而是变成像水和电一般的存在,再继续沿用传统的治理框架,恐怕很难奏效,必须以更具前瞻性和系统性的视角,构建多方协同共治的生态系统。

  擦亮法治利剑,以“秩序正义”捍卫“人间真实”。

  目前,《民法典》《网络安全法》《治安管理处罚法》等都有针对网络谣言的相关规定。关于深度合成服务的管理规定也在陆续出台和完善。但部分条文不够清晰,处罚力度也不够,且存在一定的空白,需与时俱进,提高针对性和可操作性,进一步强化震慑作用。

  全国两会上,雷军基于自身经历,提出加强“AI换脸拟声”违法侵权重灾区治理;靳东表示,“喜爱我的观众被AI骗得很惨”,建议就AI换脸立法。还有代表建议,企业应建立数据分级机制,防止恶意利用,进一步完善生成式AI视频传播管理机制。这些建议直指现实问题,反映了舆论关切。

  筑牢技术后盾,用“先进道法”打败“作恶魔法”。

  前不久,中央网信办发布2025年“清朗”系列专项行动整治重点,明确提出整治AI技术滥用乱象,突出AI技术管理和信息内容管理。目前,针对恶意“深度伪造”的监测和溯源,一些企业、科研机构与政府密切配合,技术反制谣言的“工具箱”不断上新。各平台理应发挥自身优势,加固“技术堤坝”,见招拆招、各个击破,绝不能应付了事。

  不少人还注意到,大模型有时为了“取悦”用户,甚至会主动“脑补”论据,造成信息污染,这便是和谣言生产相关的“AI幻觉”。如何解决大模型应用安全问题、提升生成内容可靠性?从周鸿祎建议“以模制模”,到刘庆峰提出构建安全可信数据标签体系,这些业内声音值得重视。

  提升AI素养,以“人类之光”照亮“谣言黑箱”。

  每一次大脑的“躺平”,都可能是对谬误的“放过”;每一次“随手”的一转,都可能是对讹传的“加热”。当技术不断狂飙突进,思考就该“多走一步”;当事实变得不易分辨,判断就该“放慢一拍”。

  在乱云飞渡的网络世界中,多渠道核实,叩问常识和逻辑,应是一种基本的自觉。这也意味着,“权威信源”的价值愈发凸显,作为“信息把关人”的主流媒体更是责无旁贷。

  “道听而涂说,德之弃也。”当历史的指针拨向信息大爆炸的今天,两千多年前孔子的谆谆之言,依然发人深省。

查看余下全文
(责任编辑:年巍)
当前位置     首页 > 滚动 > 正文
中经搜索

数智化时代,如何治理AI谣言?

2025年03月10日 06:58   来源:南方日报   吴三川

  在今年全国两会上,AI成为热门话题。

  全国人大代表、小米集团董事长雷军,全国人大代表、科大讯飞董事长刘庆峰,全国政协委员、360集团创始人周鸿祎,全国政协委员、中国煤矿文工团团长靳东等纷纷为AI治理建言献策,不约而同谈到治理AI谣言问题。

  数智化时代,信息的生成、呈现和分发被技术所重塑,AI谣言呈现出哪些新特点?背后的生成逻辑是什么?又该如何精准施策、有效应对?厘清这些问题,必要且紧迫。

  原因无它,AI向“善”首先是向“真”。

  (一)

  谣言,古已有之,且随着技术演进不断迭代升级。

  即便只将镜头聚焦到近十年,也足以感受其中的变化:从“有图有真相”到“有视频有真相”,再到“有直播才有真相”……关于“真相”的模态不断“升维”,“深度伪造”却也在加速渗透,“眼见为实”被彻底改写。

  单是浏览近期新闻报道,“智能造谣”的“杀伤力”就可见一斑——

  几天前,发现被一账号借助AI生成视频假冒,刘晓庆本人震惊发声:“画面是我,声音很像我,但不是我!这是怎么做到的?”

  今年初,西藏日喀则地震发生后,一张“地震废墟中戴帽小孩”的图片被广为传播,牵动了无数网友的心,但很快就被打假——AI生成的。

  尽管谣言成因复杂,但终归有迹可循。

  除了有人为了寻求刺激、显示自己“消息灵通”、唯恐天下不乱之外,大部分谣言都是利益在作祟,或为了博取眼球、赚取流量,或为了制造话题、敲诈勒索。

  (二)

  谣言最大的硬伤,无疑是事实本身。

  然而,在情绪先行的“后真相”语境下,只要精准击中焦虑、恐惧等“人性的弱点”,谣言同样可以大肆传播,即便多次澄清,却依然有人相信。“伪科学”谣言就很典型。

  被全方位“赋能”的AI谣言,其“穿透力”更是开启了“倍增模式”。据南都大数据研究院不完全统计,2024年搜索热度较高的50个国内AI风险相关舆情案例中,超1/5与AI造谣有关。

  从内容生成上看,用户仅需输入简单的关键词,AI软件便可根据当下热点,抓取相关素材,定制生产内容,AI并不对内容“真假”负责。

  2024年,南昌警方在查处的一起传播谣言虚构事实扰乱公共秩序案中发现,不法分子通过AI软件生成内容的方式,短时间内生成了大量文章,最高峰一天能生成4000篇至7000篇,初步估算每天的收入在1万元以上。

  谣言之害,有目共睹。它可能摧毁个人名誉,扰乱营商环境,冲击经济秩序,影响公共决策,引发社会恐慌……凡此种种,不胜枚举。

  当“开局一张图,内容全靠编”可以批量操作,事实核查通常要经过评估信源、交叉印证等一系列严谨程序;当造假的工具唾手可得,许多信息不再是“一眼假”……

  可以想见,这场不对等的技术攻防,会耗费多少治理成本,给社会信任带来多少负面影响?

  (三)

  人机交互,利弊同在。

  更深层次地看,AI谣言的存在,正是一种数字化生存的隐喻。正如有学者表示,“我们正面临一场前所未有的认知战争。”

  当人工智能不只是工具,而是变成像水和电一般的存在,再继续沿用传统的治理框架,恐怕很难奏效,必须以更具前瞻性和系统性的视角,构建多方协同共治的生态系统。

  擦亮法治利剑,以“秩序正义”捍卫“人间真实”。

  目前,《民法典》《网络安全法》《治安管理处罚法》等都有针对网络谣言的相关规定。关于深度合成服务的管理规定也在陆续出台和完善。但部分条文不够清晰,处罚力度也不够,且存在一定的空白,需与时俱进,提高针对性和可操作性,进一步强化震慑作用。

  全国两会上,雷军基于自身经历,提出加强“AI换脸拟声”违法侵权重灾区治理;靳东表示,“喜爱我的观众被AI骗得很惨”,建议就AI换脸立法。还有代表建议,企业应建立数据分级机制,防止恶意利用,进一步完善生成式AI视频传播管理机制。这些建议直指现实问题,反映了舆论关切。

  筑牢技术后盾,用“先进道法”打败“作恶魔法”。

  前不久,中央网信办发布2025年“清朗”系列专项行动整治重点,明确提出整治AI技术滥用乱象,突出AI技术管理和信息内容管理。目前,针对恶意“深度伪造”的监测和溯源,一些企业、科研机构与政府密切配合,技术反制谣言的“工具箱”不断上新。各平台理应发挥自身优势,加固“技术堤坝”,见招拆招、各个击破,绝不能应付了事。

  不少人还注意到,大模型有时为了“取悦”用户,甚至会主动“脑补”论据,造成信息污染,这便是和谣言生产相关的“AI幻觉”。如何解决大模型应用安全问题、提升生成内容可靠性?从周鸿祎建议“以模制模”,到刘庆峰提出构建安全可信数据标签体系,这些业内声音值得重视。

  提升AI素养,以“人类之光”照亮“谣言黑箱”。

  每一次大脑的“躺平”,都可能是对谬误的“放过”;每一次“随手”的一转,都可能是对讹传的“加热”。当技术不断狂飙突进,思考就该“多走一步”;当事实变得不易分辨,判断就该“放慢一拍”。

  在乱云飞渡的网络世界中,多渠道核实,叩问常识和逻辑,应是一种基本的自觉。这也意味着,“权威信源”的价值愈发凸显,作为“信息把关人”的主流媒体更是责无旁贷。

  “道听而涂说,德之弃也。”当历史的指针拨向信息大爆炸的今天,两千多年前孔子的谆谆之言,依然发人深省。

(责任编辑:年巍)

鍒嗕韩鍒帮細
涓浗缁忔祹缃戠増鏉冨強鍏嶈矗澹版槑锛�
1銆佸嚒鏈綉娉ㄦ槑鈥滄潵婧愶細涓浗缁忔祹缃戔€� 鎴栤€滄潵婧愶細缁忔祹鏃ユ姤-涓浗缁忔祹缃戔€濈殑鎵€鏈変綔鍝侊紝鐗堟潈鍧囧睘浜�
銆€ 涓浗缁忔祹缃戯紙鏈綉鍙︽湁澹版槑鐨勯櫎澶栵級锛涙湭缁忔湰缃戞巿鏉冿紝浠讳綍鍗曚綅鍙婁釜浜轰笉寰楄浆杞姐€佹憳缂栨垨浠ュ叾瀹�
銆€ 鏂瑰紡浣跨敤涓婅堪浣滃搧锛涘凡缁忎笌鏈綉绛剧讲鐩稿叧鎺堟潈浣跨敤鍗忚鐨勫崟浣嶅強涓汉锛屽簲娉ㄦ剰璇ョ瓑浣滃搧涓槸鍚︽湁
銆€ 鐩稿簲鐨勬巿鏉冧娇鐢ㄩ檺鍒跺0鏄庯紝涓嶅緱杩濆弽璇ョ瓑闄愬埗澹版槑锛屼笖鍦ㄦ巿鏉冭寖鍥村唴浣跨敤鏃跺簲娉ㄦ槑鈥滄潵婧愶細涓浗
銆€ 缁忔祹缃戔€濇垨鈥滄潵婧愶細缁忔祹鏃ユ姤-涓浗缁忔祹缃戔€濄€傝繚鍙嶅墠杩板0鏄庤€咃紝鏈綉灏嗚拷绌跺叾鐩稿叧娉曞緥璐d换銆�
2銆佹湰缃戞墍鏈夌殑鍥剧墖浣滃搧涓紝鍗充娇娉ㄦ槑鈥滄潵婧愶細涓浗缁忔祹缃戔€濆強/鎴栨爣鏈夆€滀腑鍥界粡娴庣綉(www.ce.cn)鈥�
銆€ 姘村嵃锛屼絾骞朵笉浠h〃鏈綉瀵硅绛夊浘鐗囦綔鍝佷韩鏈夎鍙粬浜轰娇鐢ㄧ殑鏉冨埄锛涘凡缁忎笌鏈綉绛剧讲鐩稿叧鎺堟潈浣跨敤
銆€ 鍗忚鐨勫崟浣嶅強涓汉锛屼粎鏈夋潈鍦ㄦ巿鏉冭寖鍥村唴浣跨敤璇ョ瓑鍥剧墖涓槑纭敞鏄庘€滀腑鍥界粡娴庣綉璁拌€匵XX鎽勨€濇垨
銆€ 鈥滅粡娴庢棩鎶ョぞ-涓浗缁忔祹缃戣鑰匵XX鎽勨€濈殑鍥剧墖浣滃搧锛屽惁鍒欙紝涓€鍒囦笉鍒╁悗鏋滆嚜琛屾壙鎷呫€�
3銆佸嚒鏈綉娉ㄦ槑 鈥滄潵婧愶細XXX锛堥潪涓浗缁忔祹缃戯級鈥� 鐨勪綔鍝侊紝鍧囪浆杞借嚜鍏跺畠濯掍綋锛岃浆杞界洰鐨勫湪浜庝紶閫掓洿
銆€ 澶氫俊鎭紝骞朵笉浠h〃鏈綉璧炲悓鍏惰鐐瑰拰瀵瑰叾鐪熷疄鎬ц礋璐c€�
4銆佸鍥犱綔鍝佸唴瀹广€佺増鏉冨拰鍏跺畠闂闇€瑕佸悓鏈綉鑱旂郴鐨勶紝璇峰湪30鏃ュ唴杩涜銆�

鈥� 缃戠珯鎬绘満锛�010-81025111 鏈夊叧浣滃搧鐗堟潈浜嬪疁璇疯仈绯伙細010-81025135 閭锛�

精彩图片
鍏充簬缁忔祹鏃ユ姤绀� 锛� 鍏充簬涓浗缁忔祹缃� 锛� 缃戠珯澶т簨璁� 锛� 缃戠珯璇氳仒 锛� 鐗堟潈澹版槑 锛� 浜掕仈缃戣鍚妭鐩湇鍔¤嚜寰嬪叕绾� 锛� 骞垮憡鏈嶅姟 锛� 鍙嬫儏閾炬帴 锛� 绾犻敊閭
缁忔祹鏃ユ姤鎶ヤ笟闆嗗洟娉曞緥椤鹃棶锛�鍖椾含甯傞懌璇哄緥甯堜簨鍔℃墍    涓浗缁忔祹缃戞硶寰嬮【闂細鍖椾含鍒氬钩寰嬪笀浜嬪姟鎵€
涓浗缁忔祹缃� 鐗堟潈鎵€鏈�  浜掕仈缃戞柊闂讳俊鎭湇鍔¤鍙瘉(10120170008)   缃戠粶浼犳挱瑙嗗惉鑺傜洰璁稿彲璇�(0107190)  浜琁CP澶�18036557鍙�

浜叕缃戝畨澶� 11010202009785鍙�