■本报评论员 王学义
当AI“胡说八道”给出错误答案,用户能告它吗?此前,梁某在查询高校信息时,发现AI平台生成的信息存在错误。梁某提出质疑后,AI称若有误,将提供10万元赔偿。梁某于是将AI平台研发公司告上法庭,索赔9999元。日前,法院审理后驳回了原告的请求。
作为全国首例AI“幻觉”案,本案引发广泛关注。所谓AI“幻觉”,不是说AI有了意识,而是大模型在生成内容时出现虚构、不准确或不合逻辑的信息,导致“一本正经地胡说八道”。此次判决结果令不少人感到困惑:AI明明造成了误导,为什么用户告不赢?深入分析本案背后的法律逻辑,能让我们更好地理解AI时代的责任边界。
告不赢AI,核心在于法律对AI属性的认定。依据民法典相关规定,AI不是民事主体。在本案中,AI的10万元赔偿承诺,本质上是大模型基于数据预测生成的文本,并非服务提供者的真实意思表达,不具有法律约束力。这就好比鹦鹉学舌不能代表主人的意志,AI的“豪言壮语”就法律层面而言,也只是技术工具的无意义输出,无法构成有效的责任承诺。
不仅如此,法院还明确,生成式人工智能属于“服务”而非“产品”。AI生成不准确信息本身并不直接构成侵权。在本案中,研发公司已在显著位置提示AI生成内容的局限性,被法院认定为无过错。这种归责逻辑,符合技术发展现状,能避免让企业为无法完全杜绝的技术瑕疵承担无限责任,也能让广大用户明白,为什么总会在AI生成的文本的结尾,看见那句“本回答由AI生成,内容仅供参考,请仔细甄别”。
当然,这并不意味着AI可以肆意“胡说八道”,更不能漠视用户权益。判决清晰划定了服务提供者的责任边界:企业必须履行严格的审查义务,以显著方式提示AI的功能局限,采取通行技术措施提升内容准确性,在重大利益场景下加强警示。一旦企业未履行这些义务,导致用户遭受损失,就可能被认定为存在过错,承担相应侵权责任。
对于用户而言,这起案件更是一针清醒剂。当前,生成式人工智能应用越来越普及。截至2025年6月,80.9%网友曾利用生成式人工智能产品回答问题。在这种情况下,提升对AI内容的甄别水平愈发重要。面对AI生成的信息,尤其是涉及重大决策的内容,应该养成“情绪降温、信息溯源、交叉验证、保持审慎”等良好习惯,通过多方求证避免被AI幻觉误导。当涉及医疗、金融、法律等领域时,更不能将AI建议作为唯一依据,必须咨询专业人士。
在AI发展日新月异的背景下,相关立法工作也应及时跟上。2025年9月,《人工智能安全治理框架》2.0版发布,提出将针对AI完善优化风险分类,动态调整更新防范治理措施,今后还应进一步细化。对于那些已经涌现到现实生活中的问题,应通过法院判例来解决,保护群众合法权益。既要平衡创新和发展,也要为AI划定红线、明确底线。



前一期