AI服务提供者一般不直接担责,但有义务进行显著警示
在当前法律框架下,生成式AI本身不具备法律主体资格,因此其“胡说八道”(即AI幻觉)产生的错误信息,通常不会让平台承担无过错责任。但如果平台未履行风险提示、内容标识等法定义务,则可能因存在过错而被追责。
目前司法实践倾向于将AI视为一种“信息服务”而非“产品”,适用《民法典》第1165条的过错责任原则:只有当服务提供者明知或应知内容虚假却放任不管时,才需承担责任7。
🔍 背景:什么是AI“胡说八道”?
AI“胡说八道”并非字面意义的胡言乱语,而是指大语言模型在不确定情境下基于概率生成看似合理但事实错误的内容,业界称之为“AI幻觉”(Hallucination)。这种现象源于模型训练目标是“续写句子”而非“陈述事实”1。
常见表现包括:
编造不存在的书籍、论文或法律判例;
张冠李戴人物身份或事件细节;
在医疗、法律等专业领域给出危险建议4。
⚖️ 法律责任如何划分?三类主体各司其责
责任主体 是否担责 法律依据与判断标准
AI平台/服务提供者 一般无责,除非有过错 不适用产品责任;若未做风险提示、未标注生成内容、未优化模型缺陷,则可能构成“未尽合理注意义务”7
用户/使用者 可能担责 若利用AI生成虚假信息并传播(如造谣、伪造证据),需自行承担法律责任22
第三方内容发布者(如MCN机构) 明确担责 利用AI批量生产谣言牟利,已有多起行政处罚案例5
例如,在全国首例AI幻觉侵权案中,原告因轻信AI提供的虚假高校校区信息错失报考机会,起诉科技公司索赔。法院最终认定:AI输出内容不具法律约束力,平台未强制提醒风险属瑕疵,但不构成侵权
🛡 应对策略:技术+制度双管齐下
为降低AI幻觉带来的社会风险,各方正从多个维度协同治理:
技术层面
推广检索增强生成(RAG)技术,连接权威数据库实时验证4。
引入多模型交叉验证机制,提升输出准确性4。
监管层面
要求对AI生成内容添加数字水印和显著标识,防止公众混淆4。
推动建立高风险场景准入机制,如医疗、司法等领域需人工复核2。
用户层面
培养“批判性思维”,对AI输出保持合理怀疑11。
关键决策前务必通过官方渠道二次核实7。
✅ 结论:平台免责有条件,警示必须到位
尽管AI幻觉难以根除,但法律已明确责任边界:平台无需为技术固有缺陷负责,但必须履行透明化义务。未来趋势将是“谁使用谁负责 + 平台尽提示义务”的共治模式。
目前尚未形成统一的国家级AI虚假信息赔偿标准,但在司法实践中,是否设置醒目警示、是否允许用户纠错、是否有内容追溯机制,已成为判定平台是否存在过错的关键指标。