“国庆上网,被雷军整整骂了7天。”连日来,短视频平台上出现了大量“雷军”的发言视频,涉及堵车、调休、游戏等热门话题,不仅言辞犀利还常爆粗口。有网友跑去雷军社交媒体账号下就此提出疑问,雷军回复以三个表示愤怒的表情。眼下,各种AI克隆雷军的配音模仿、恶搞视频仍层出不穷。
从相关视频来看,“雷军”本人出镜,口音似乎也是本人。有的网友不以为意,认为这不过是最常见的“恶搞”“玩梗”,还有的网友则半信半疑,更有“数字化生存”经验欠缺者对此深信不疑。“雷军AI配音”乍看是一场娱乐狂欢,但潜藏的危险不能不引起我们的警惕。
从彼雷军到此雷军,使用“AI配音”就可以实现一键直达。近年来,通过AI实现的声音和画面深度伪造的技术门槛不断降低,为这种“一键变声”“一键变脸”大肆泛滥提供了可能。目前,市面上已有大量的AI配音小程序,用户只需在程序内选择相应的人物声音并输入文字,便可借用他人的声音发表言论。有的软件免费向用户开放部分使用权限,收费版也价格较低。
深度伪造作为一种技术,是中性的。但是,在深度伪造技术之下,我们可能无法区别真假,过去崇尚的“眼见为实”受到冲击,只能信以为真。而真伪难辨的混沌地带,也将成为滋生各种乱象的温床。在AI诈骗中,犯罪分子凭借一段原始语音、照片等就可以编造谣言甚至陷阱,早已是屡见不鲜的套路。
《2024人工智能安全报告》显示,2023年基于AI的深度伪造欺诈增长了3000%,仅今年上半年,AI诈骗案案值已超过1.85亿元。就目前而言,面对深度伪造技术,我们普通人仅有的生存经验完全无法招架,每个人都很有可能成为“受害者”。