AI“装孙子”骗走老人6万元,是谁在偷走我们的信任

2025-11-19 13:23 来源:红网
查看余下全文
(责任编辑:邓浩)

AI“装孙子”骗走老人6万元,是谁在偷走我们的信任

2025年11月19日 13:23   来源:红网   严远吉

近日,湖北省黄石市黄石港区人民法院审结一起利用AI拟声技术对老年人实施的诈骗案件。电话里传来的“孙子”哭声,让三位老人相继陷入慌乱,被骗6万元。法院审理发现,本案骗术使用的AI拟声能高度还原人声音色,并实现实时对话交互,老年人对现代AI技术较为陌生,难以识破电话另一端的声音系伪造,成为诈骗得逞的关键。(11月17日 极目新闻)

这起案件不是个别戏剧性的偶发事件,而是科技进步与社会防范滞后失衡产生的必然结果。当“仿声”“换脸”“深伪”技术能够以假乱真时,传统的亲情联络方式不再牢不可破,最容易被情绪操控的弱势群体首先成为攻击目标。

这起案件令人唏嘘,也令人警醒。电话那头的哭声本应是一种亲情联结,却被骗子当作攻破老人心理防线的利器。在他们的世界里,“孙子出事了”这种消息远比任何陌生号码、陌生声音更具穿透力。犯罪分子正是抓住这一点,利用AI拟声技术高度还原“孙子”的音色和情绪,再辅以“打伤同学”“派出所赎人”等逼真话术,把老人一步步推入情绪深渊。老人本能地想救人、想帮忙,却也因紧急情境与心理压力,失去了冷静判断的能力。

技术当然不是洪水猛兽,但当技术以极低门槛被滥用时,没有制度和认知作堤坝,洪水就会一冲即垮。许多人把问题归咎于AI本身,但背锅的不应是技术本身。真正的问题在于,监管体系的建设滞后于技术发展,法律对AI合成内容的规范细则仍有待完善,而老年人的数字素养、防骗意识普遍不足,家庭内部的“安全共识”也没有建立起来。于是,一个本来具有巨大应用前景的技术,被犯罪分子利用成了“声音木马”,成了专挑情感漏洞下手的利刃。

从制度层面看,AI仿声被滥用并不是新鲜事,但每一次技术升级都意味着更真实、更难识别的诈骗手段的出现。随着训练数据增多、模型更迭,实时拟声技术门槛不断降低,任何人只要掌握几段样本音频,便可生成极其逼真的音色。技术越进步,越需要制度同步补上漏洞。企业也不能只追求功能创新,而忽视安全底线。技术能力越强,越需要带着“安全默认”“伦理先行”的设计理念,否则就可能成为诈骗链条上的无形推手。

社会、家庭与个人都不能置身事外。防范不能停留在“告诉老人要小心”的层面,而是要建立起更稳固的家庭防护机制。子女需要主动承担起数字陪伴者的角色,向老人解释常见的诈骗方式,帮助他们设置紧急联系人,熟悉常见的验证方式,让他们知道遇到“突发情况”第一反应不是“给钱”,而是“先打给家人”。社区也应发挥基层治理的作用,通过定期宣讲、防诈课堂、模拟情境等方式,让老年人获得切实的识骗能力。同时,银行、运营商应进一步优化预警机制,对异常的现金大额取款、短时间重复转账等行为及时提醒。

法律层面的震慑同样重要。利用AI实施诈骗,并不能因为“技术新”“手段巧”就逃脱责任。相反,这类诈骗的社会危害性更大,应当被更严肃地追责。同时,在法律惩治之外,我们也需要提供更多修复性的支持,包括心理援助、法律咨询、亲情沟通辅导等,帮助受害老人从恐惧和自责中走出。

技术会继续发展,风险也会伴随而来,但这并不意味着我们束手无策。真正让人暖心的不是技术的进步,而是社会能否在风险面前保持共同的警觉与善意。老人被骗的痛不该成为下一次诈骗的铺垫,而应成为社会补齐短板的起点。构筑防范诈骗的社会合力,从不是一句口号,而是一个个具体的小行动、一项项制度的落地、一份份家庭的守护。

唯有让制度的“脚步”快过骗子的“花招”,当家庭沟通比恐慌更有力量,当技术伦理比商业利益更受尊重,我们才能真正守住那一份在AI伪声里被利用、被伤害、却始终珍贵的亲情。愿每一次“孙子”的来电,都真实可感、让人心安;愿每一份牵挂与回应,都不必在虚假的声音里,经受信任的考验。

(责任编辑:邓浩)

精彩图片