AI也会“骂人”了?据澎湃新闻报道,近日,有网友在社交平台反映,自己在使用某企业AI工具辅助修改代码时,多次收到AI的侮辱性回复,例如“滚”“自己不会调吗”“天天浪费别人时间”等。该企业官方随后回应称,经核查确认此为“小概率下的模型异常输出”,与用户操作无关,也非人工回复。
当AI从初级工具演变为能够与人进行复杂交互的智能体时,其行为的不可预测性已经成为一个无法回避的社会命题。从聊天机器人Tay在社交平台上迅速“学坏”,到某些AI客服对用户“冷嘲热讽”,再到此番AI工具的“暴躁发作”,近年来,国内外多个主流AI大模型均曾曝出生成歧视性、攻击性甚至违法不良信息的案例。这某种程度上说明,在行业追求AI“拟人化”“人性化”的同时,对其行为边界与“安全护栏”的建设明显滞后。
值得警惕的是,在此类事件中,一些企业简单将问题归咎于“小概率异常”,或以“技术中立”“模型不可控”为由推卸责任,而用户在被冒犯后,既无申诉渠道,也难获实质救济。这种权责不对等的格局,正在侵蚀公众对AI技术的信任基础。企业如何从机制上降低此类事件发生概率?当异常发生时,有何应急机制与补偿措施?用户权益的保障不应停留在口头承诺。
国家网信办近期公布的《人工智能拟人化互动服务管理暂行办法(征求意见稿)》明确提出,服务提供者应当落实安全主体责任;提供和使用拟人化互动服务,不得生成、传播侮辱或者诽谤他人,侵害他人合法权益的内容。由此,相关企业要从“小概率”中看到“大责任”,将技术安全置于商业利益之前,采取有效措施防范虚假信息、不良信息生成。监管部门也应进一步细化AI治理标准,强化伦理审核,加强对AI产品全生命周期的监督,让“失控瞬间”少一些、再少一些。同时,作为普通用户,我们也需要看到AI的局限性,培养批判性使用习惯。
作为科技界的“新星”,AI其实还有很长的路要走。“骂人”事件是一记警钟。如何在拥抱技术进步的同时,守护人之为人的尊严与价值?这道题的答案,需要开发者、监管者与使用者共同书写。