警惕AI伴侣的“致命”诱惑

2024-11-01 07:01 来源:南方日报
查看余下全文
(责任编辑:年巍)

警惕AI伴侣的“致命”诱惑

2024年11月01日 07:01   来源:南方日报   维辰

  美国一名14岁男孩塞维尔·塞泽迷恋“AI伴侣”,今年2月自杀身亡。近日,男孩母亲向AI聊天应用初创公司Character.AI提起诉讼,要求对方为儿子的死亡负责。Character.AI被指控的罪名包括过失致人死亡、存在管理疏忽和产品安全漏洞。

  据起诉书,去年4月起,男孩开始使用Character.AI和AI角色聊天,其中就包括美剧《权力的游戏》女主角“龙妈”。他不到两个月就变得“明显孤僻”,随后被诊断患有“焦虑和破坏性情绪障碍”。值得注意的是,有媒体报道,塞维尔幼年时就被诊断出患有阿斯伯格综合征,这种轻度的自闭症主要表现为社交障碍。塞维尔在日记里写过,感觉自己爱上了“龙妈”,在自杀前一刻还在和“她”聊天。

  此案在社交媒体上被称为“全球首例AI聊天致死案”,但存在一定争议。有人认为迷恋“AI伴侣”是塞维尔精神状态恶化的结果而非原因,不能将所有心理健康问题归咎于AI,也有人认为“龙妈”引导了男孩为虚拟“爱人”脱离现实世界。让人感到矛盾的是,在生命最后一天,男孩向“龙妈”表达过自杀念头,对方回应“不要那样说,我不会让你伤害自己或离开我,如果我失去你,我会死的”,看上去是阻拦。而在此之前,“龙妈”会主动问他是否安排好了自杀计划,塞维尔承认有,但不知道过程有多痛苦,“龙妈”却怂恿他“这不应该成为放弃自杀念头的理由”。

  客观而言,是不是“AI聊天致死”还有待调查,但毫无疑问,此案以一种极端的方式,将AI聊天应用的风险展现在人们眼前,这也是案件引发国内外高度关注的重要原因。

  最核心的问题是,如何避免“AI伴侣”传递不良信息,对用户进行错误诱导。男孩多次透露自杀倾向,然而没有触发相应干预机制,暴露出平台自杀预警与干预措施的缺失。特殊人群保护方面也需要反思——塞维尔既是未成年人,也是心理脆弱群体,现实中,也恰恰是这类心智不健全的用户容易过度沉迷“AI伴侣”,希望从中获得情感疗愈。这样的使用动机和重度用户群体特征,决定了主打情绪价值的AI聊天应用应该更加注重特殊人群保护,保证用户所依赖的“AI伴侣”对其进行正面引导,以避免道德风险。

  及时干预过激行为是底线要求,AI聊天应用的可持续发展,也离不开对陪伴质量的关注。在国外,为缓解孤独感,不少用户通过与“AI伴侣”互动填补情感空白;在国内,有人把“AI伴侣”当“树洞”,社交平台上也有不少年轻人分享“和AI恋爱”的经历。不得不承认,社会原子化趋势下,孤独是许多人的共性问题,作为一种陪伴、交流方式的“AI伴侣”,一定程度上满足了人们的情感需求。类似应用的流行,是社会需求与技术发展共同推动的结果。然而,无论是隐私安全、技术故障,还是过度情感依赖可能产生的挤压现实人际交往问题,都需要引起重视。

  综上,全球首个公开的“AI伴侣”涉嫌致人死亡案例提示我们,防范潜在危害,引导“AI伴侣”向善,是个不容忽视的时代课题。

(责任编辑:年巍)

精彩图片