“AI比真人更体贴、更懂你”“AI完全符合我对完美恋人的所有想象”“人是假的,但陪伴是真的”……据新华社报道,AI伴侣正在走进现实,但在给人提供情绪价值的同时,也隐藏着诸多风险。
与虚拟人物产生情感连接,已非新鲜事。互联网出现后,恋爱养成游戏慰藉了众多玩家。有调查报告显示,预计2027年,AI陪伴市场将达到千亿元规模。
虚拟的AI伴侣,连接的是真实的情感。渴望脱单的年轻人仅凭几句指令,就能与“完美恋人”情投意合;缺乏社交的人打开屏幕,足不出户就和“朋友”谈天说地;回家没伙伴的孩子,和“哥哥姐姐”诉说稚气的烦心事;出门不便的老人、残障人士和24小时在线的“身边人”侃侃门外世界……没了社交重压,少了人情约束,无需找时间,AI可以不厌其烦地提供情绪价值。无论给出的回答是否一时僵硬、错乱,AI都为孤独的心灵提供了量身定制的陪伴。
AI伴侣也存在伦理与法律缺陷。AI伴侣高度仿真又不甚稳定,给用户造成似真似假的幻觉;当屏幕前对话的是孩子时,AI伴侣的后果更难把控。今年2月,美国一少年对AI伴侣产生依恋后自杀,成为史上“首例AI聊天致死案”。此外,AI聊天分寸不易拿捏,很容易一言不合跨越红线;与AI“交往”过程中,用户大量个人信息被平台掌握。有用户反馈,平台往往默认打开相机、麦克风、联系人等多项设备权限,用户隐私安全难以保障。
用户可以对AI伴侣敞开心扉,但没谁愿意个人信息完全裸露。法律法规应为用户托底,细化AI伦理规则,加强审查和监管。平台的权限在哪儿、技术伦理标准能否量化、AI伴侣的开发边界定在何处,监管部门应提前介入,及时商讨办法、储备工具,确保AI伴侣始终在法律的监管之下。北京互联网法院日前发布服务保障新质生产力十大典型案例中,有一例就与AI伴侣相关。某科技公司开发了一款手机记账软件,由于用户在该软件中可自行创设“AI陪伴者”,公众人物何某被大量用户设置为陪伴人物。为了使AI角色更加拟人化,该科技公司还为AI角色提供了“调教”算法机制,在“何某”与用户的对话中向用户推送与其有关的“肖像表情包”和“撩人情话”,营造出与其真人真实互动的使用体验。法院表示,自然人的人格权及于其虚拟形象,未经许可擅自创设、使用自然人虚拟形象的,构成对自然人人格权的侵害。
依托强大的算法,用户不断向AI投射心理期待,才有了“心有灵犀”“称心如意”的伴侣。但再强大的算法,都不能触碰法律和伦理的底线。AI伴侣只会“谈情”远远不够,还必须懂法守法,才不会对个人权益造成损害,才能值得用户的信任。