据1月26日潮新闻报道,近日,杭州互联网法院就国内首例因“AI幻觉”引发的侵权案作出一审判决,驳回诉讼请求。判决明确,在生成式人工智能场景中,AI的“承诺”不构成平台的意思表示,本案中的平台不存在过错。
案情并不复杂。2025年6月,梁某使用一款AI平台查询高校报考信息,AI不仅生成了不准确的校区信息,还底气十足地承诺“内容有误将赔偿10万元”。一气之下,梁某将AI研发公司告上法庭。从用户视角看,AI的错误输出可能干扰报考决策,“赔偿承诺”更像是一种明确的责任担保,维权之举符合情理。但从法律与技术双重维度审视,法院的判决并非偏袒平台,而是基于技术现实与法律原则的“深思熟虑”。
所谓“AI幻觉”,并非AI有了意识,而是大模型在生成内容时出现虚构、不准确或不合逻辑的信息,这是大模型技术尚未完全克服的缺陷。如今,生成式人工智能仍处于快速迭代的早期阶段,若因“幻觉”问题而令平台动辄得咎,将会抑制创新探索,最终损害的是技术进步带来的普惠价值。
法院判决的核心要义在于,明确区分了AI的“言语”与平台的意思表示。AI的“承诺”不是平台的承诺,正如鹦鹉的学舌不代表主人的意志。作为首例因“AI幻觉”引发的侵权案,该案的判决对快速发展的AI行业具有风向标意义,也为处理类似纠纷提供了参照。
当然,宽容技术局限,绝不意味着放任自流。此案的判决也释放出另一个信号:平台虽然不能保证AI“零幻觉”,但至少应当为“防错”作出充分努力,这也是判断其是否要担责的关键。该案中,法院之所以判定平台无责,源于其研发公司完成了大模型备案与安全评估,采取了当前技术条件下的必要措施来保障内容准确性,并履行了对用户的提示说明义务。
这份判决体现了司法在保护个体权益与促进产业发展之间的审慎平衡,其导向是鼓励负责任地创新。也就是说,在现有技术框架内尽责,平台就可免于为无法完全杜绝的技术瑕疵承担无限责任。当然,应尽的义务会随产业发展而动态调整,平台须在迭代技术的过程中努力降低“幻觉”频率与危害。
于用户而言,法院的判决亦是一剂清醒剂,我们对AI的“能力”要有合理预期。在向AI提问,尤其是在重要决策关口求助AI时,应保持理性,独立思考和多方求证不可或缺。
随着AI更深地嵌入生活,类似纠纷恐难避免。此案提醒我们,在拥抱AI巨大潜能的同时,必须构建与之适配的法律与社会治理框架。这个框架,既要有包容技术试错的弹性,也要有守护基本权益的刚性。这种平衡智慧,正是应对技术革命应有的态度。