AI幻觉危害大,如何应对成难题?

5次阅读

共计 948 个字符,预计需要花费 3 分钟才能阅读完成。

AI 幻觉:从惊艳到隐患

2022 年 11 月,ChatGPT 惊艳登场,人们在惊叹之余,也发现了它的新问题——会一本正经地编造假话,这在人工智能领域被称为“幻觉”。早在 1995 年,幻觉概念就已引入,最初带有一定褒义,意味着 AI 具备创造性。但随着技术发展,其含义发生了变化。2024 年,哈工大与华为的论文将幻觉分为事实性幻觉和忠实性幻觉。

幻觉的分类与表现

事实性幻觉指模型生成的内容与现实世界事实不符,包括事实不一致和事实捏造。比如,被问“第一个登上月球的人”,模型可能答错;被问“独角兽的历史起源”,模型可能编造无根据的答案。忠实性幻觉指生成内容与用户指令或上下文不一致,以及内容本身不自洽,包括指令不一致、上下文不一致和逻辑不一致。例如,用户要求翻译却得到回答,或回答与上下文矛盾等。

幻觉的成因

幻觉与大语言模型的训练方式和感知世界的方法有关。数据是根源,有缺陷的数据源可能含错误信息和偏见,导致模型模仿性错误。比如训练数据中有大量未标注虚构的科幻小说,AI 可能信以为真。数据源还可能存在知识边界,使模型面对特定问题“无中生有”。即使数据本身没问题,模型也可能因对数据利用不当产生幻觉,如过度依赖虚假关联或知识回忆失败。训练过程中的缺陷也会导致幻觉,预训练阶段模型架构缺陷、不理想的训练目标和曝光偏差,对齐阶段的能力错位和信念错位,推理阶段解码策略的随机性和解码表征的不完美,都可能引发幻觉。

幻觉带来的问题

AI 幻觉引发了诸多问题。2024 年 2 月,加拿大航空的智能聊天机器人客服提供“虚假折扣”,乘客起诉获赔。2023 年 5 月,美国律师用 ChatGPT 搜集案例,其中 6 个是编造的,法庭驳回诉讼并罚款。2023 年 9 月,英国卫报记者发现亚马逊电子书旅游类排行榜上充斥 AI 制作的书籍,部分涉及危险的“饮食”内容。幻觉颠覆了人们对计算机程序的认知,降低了系统的可靠性和稳定性,也影响了 AI 的生产力。

应对幻觉的方法

目前针对幻觉大体有两种缓解方法。一种是优化训练数据,调整训练方式,增强大语言模型能力,从源头上降低幻觉出现几率。另一种是在大语言模型之外设置工程性防护措施,拦截错误问题。比如 Google 的 Gemini 推出“核查回答”功能,用户可验证答案是否可靠。外挂式防护措施将成为解决 AI 幻觉、提高系统稳定性的重要方法。

正文完
 0