近日,包头警方发布一起利用人工智能实施电信诈骗的典型案例,福州市某科技公司法人代表郭先生10分钟内被骗430万元。复盘整个被骗过程细思恐极。据披露,骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。骗子并没有使用仿真的好友微信添加郭先生,而是直接用好友微信发起视频聊天求助。(5月23日《北京商报》)
AI诈骗,眼见未必为实。换声、换脸、拦截微信号,电信诈骗所使用的多重技术正在让骗局越来越难以识破。譬如,骗子会通过骚扰电话来提取受害人声音,再用合成后的声音实施诈骗。除了点对点获取数据,骗子也会用AI技术从网络信息中筛选出受害人,并运用人体图像合成技术生成假脸,再对其施骗。另外,骗子还会在盗取微信号后,向其好友发送此前的聊天语音,借机取得信任并进一步展开骗术。
由此可见,尽管各种骗局防不胜防,但只要切断对AI诈骗的“数据喂养”,有效防范就不会是一句空话。与人类学习依靠大脑不同,人工智能的学习离不开大数据。通过统计分析浏览记录、点击频次,系统便可把人的特征、行为、选择信息化,为人的生活提供便利。然而,这也为隐私保护埋下了巨大的风险,AI不免成为数据喂养的怪兽。
归根结底,AI诈骗利用了隐私保护的漏洞。大数据时代,随着隐私范围的扩大,隐私权利归属日益复杂,隐私保护难度也越来越高。这对隐私保护的关键技术、法律法规和公众的权利意识都构成了挑战。为了应对挑战,各方应当加强合作,织密个人隐私保护网。4月11日,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》。其中明确提出,利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,不仅要承担该产品生成内容生产者的责任,还要承担个人信息处理者的法定责任,履行个人信息保护义务。相信通过强化新型监管、协同治理,隐私保护将紧跟技术发展的脚步,让技术更好造福生活。
此外,面对各种风险,每个人都需要提升隐私保护意识。譬如,不轻易参与网上流行的“AI换脸”“AI换声”活动,谨慎使用指纹支付、刷掌支付等新兴支付方式,不随意提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等信息。
(责任编辑:臧梦雅)