您现在的位置是:焦点 >>正文

AI造谣,责任岂能以“幻觉”了之

焦点58398人已围观

简介□刘安琪南京师范大学)据澎湃新闻报道,南京执业律师李小亮发现,在百度手机App、百度网站搜索其个人姓名+职务时,百度“AI智能回答”竟然给出“李小亮律师被判三年有期徒刑”的错误文字内容,并配上他着律师 ...

□刘安琪(南京师范大学)

据澎湃新闻报道,南京执业律师李小亮发现,AI造谣在百度手机App、责任百度网站搜索其个人姓名+职务时,幻觉百度“AI智能回答”竟然给出“李小亮律师被判三年有期徒刑”的AI造谣错误文字内容,并配上他着律师袍的责任照片。

对此,幻觉李小亮起诉北京百度网讯科技有限公司(以下简称百度),AI造谣南京江北新区人民法院一审认为百度的责任行为构成名誉侵权,判决其向李小亮书面道歉。幻觉百度上诉,AI造谣南京市中级人民法院二审维持原判。责任

庭审中,幻觉百度的AI造谣核心辩解是:AI存在“幻觉”,技术上无法预见用户会如何提问,责任也无法控制模型会生成什么结果,且事发时间点为国内人工智能发展初期,技术有限,由于技术局限性,李小亮主张的侵权内容具有极强的偶然性,因此不能认为百度有过错。而这一辩解本身,正是整场诉讼最值得警惕之处:它试图把“AI幻觉”塑造成一种新的免责修辞——将“技术局限”包装成“责任豁免”,用算法的“不可控”为人的“不作为”开脱。

要戳破这套说辞,首先必须厘清一个前提:AI不是不受人控制的自然现象,而是企业训练、部署并主动向公众开放的技术产品。百度在庭审中不断强调“用户提问不可预测”“模型输出不可预测”,试图将侵权结果描述成一种无法控制的技术偶发。

但AI如何训练、内容如何生成、哪些回答能够被直接推向公共空间,本身都对应着企业的具体决策。正因如此,庭审时,主审法官那句“豆包、DeepSeek上发问,为什么没有这些评价?”才格外关键——同一个律师、同一组关键词,别的平台没有生成诽谤,说明这根本不是技术必然,而是产品设计、数据治理和安全投入的差异。既然如此,责任就不能消失在“算法黑箱”里,更不能被一句“AI自己生成的”轻轻带过。

更进一步看,技术的“不能”,恰恰意味着部署者负有更高的“应为”。百度辩称AI幻觉具有偶发性、受限于技术水平,法律不应苛责。但这个逻辑恰恰是颠倒的。正因明知模型可能编造事实,企业才更应承担严格的风险控制义务。明知AI存在生成不实信息的风险,却让它以“智能回答”的名义自动生成、合成并公开发布,就不再是“技术不能”,而是“作为不够”。

技术的不完美,本应是提高注意义务的起点,百度却试图把它扭曲成责任的终点。

如果这种“技术背锅”的逻辑被司法和社会接受,危险的将远不止这一次AI侵权。其他部署AI的企业同样可以复制这套说辞:自动驾驶撞人是传感器局限,算法推荐极端内容是模型偶发,AI面试歧视是数据偏差。

每一个具体伤害,都能找到一个对应的“技术局限”来解释。久而久之,“算法出的错”就会变成一道无形的防火墙,把所有本该由人承担的责任挡在外面。

要避免这种局面,企业必须转变思路,从“事后甩锅”转向“事前设防”。企业该做的,从来不是在伤害发生后反复强调“技术局限”,而是在产品进入公共空间之前就为已知风险设防——根据场景风险等级分层控制模型生成权限,在涉及真实人物、刑事罪名等高风险领域建立机器与人工相结合的审核机制,并通过检索增强生成与知识图谱等技术手段为输出结果提供可溯源的依据。

算法本身的缺陷与失准,已然带来实实在在的伤害,本就令人难以容忍;而更让公众无法接受的是,企业反倒拿技术能力边界作托词,为自己事前缺位、事后推诿的不作为开脱。技术缺憾只能说明错误何以出现,却绝不能成为企业置身事外、逃避责任的理由。

本文为红辣椒评论原创文章,仅系作者个人观点,不代表红网立场。转载请附原文出处链接和本声明。

Tags:

相关文章



友情链接

琼ICP备2025056076号-4