当前位置: 首页 > article >正文

AIGC(生成式AI)试用 26 -- 跟着清华教程学习 - DeepSeek与AI幻觉

目标:继续学习

个人理解:
- AI幻觉:一本正经的胡说八道,你还觉得很道理,倾向于相信;事实不一致,指令(预期)与实际不一致:跑题
- 潜在风险:把AI带坏了;信息误导、过度信任导致的误判、失控、恶意利用,伦理不设限(比如回答中可以带脏话)
- 事实幻觉? -- 指AI生成的内容与现实世界事实相矛盾
- RAG:RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合了检索生成的技术,旨在提高语言模型生成内容的准确性和可靠性。RAG的核心思想是通过从外部知识库中检索相关信息,辅助模型生成更符合事实、更高质量的文本。
- AI幻觉,有风险,同样存在迷之创造,可能帮你打开新思路,关键是你如何提问和使用

DeepSeek与AI幻觉

  • 什么是AI幻觉
    - 学术:指模型生成与事实不符、逻辑断裂或脱离上下文的内容,本质是统计概率驱动的“合理猜测”
    - 说人话:一本正经地胡说八道
    - 事实性幻觉:指模型生成的内容与可验证的现实世界事实不一致
    - 忠实性幻觉:指模型生成的内容与用户的指令或上下文不一致

    提问:画一幅画:有山 、有河、有人、有飞机、有大炮、有亭子、有跑车、有雪、有瀑布 -- 这样的场景存在吗?
  • DeepSeek为什么会产生幻觉
    - 数据偏差:训练数据中的错误或片面性被模型放大(如医学领域过时论文导致错误结论)-- 错误引导
    - 泛化困境:模型难以处理训练集外的复杂场景(如南极冰层融化对非洲农业的影响预测)-- 解构、重构偏离实际
    - 知识固化:模型过度依赖参数化记忆,缺乏动态更新能力(如2023年后的事件完全虚构)-- 知识库更新不及时
    - 意图误解:用户提问模糊时,模型易“自由发挥”(如“介绍深度学习”可能偏离实际需求)-- 自主意识?

    - 主观较多的内容一般不易产生幻觉 -- 正确性评价缺少量化,多以描述为主(非数据化度量),结果与评价人喜好、所处的文化环境、语境有极大关系

    - AI幻觉的潜在风险
      > 信息污染风险:由于DeepSeek的低门槛和普及度高,大量AI生成内容涌入中文互联网,加剧了虚假信息传播的“雪球效应”,甚至污染下一代模型训练数据
      > 信任危机:普通用户难以辨别AI内容的真实性,可能对医疗建议、法律咨询等专业场景的可靠性产生长期怀疑
      > 控制欠缺:DeepSeek的对齐工作较其他闭源大模型有所欠缺,其开源特性也允许使用者随意使用,可能会成为恶意行为的工具
      > 安全漏洞:若错误信息被用于自动化系统(如金融分析、工业控制),可能引发连锁反
  • AI幻觉评测
    - 不同模型、相同条目的通用提示语、相同应用场景 -- 人工判断、标注、交叉验证
    - 不同模型、相同条目、随机抽取事实幻觉测试题 -- 事实幻觉?
    - 推理逻辑能力强,幻觉率减少,同样AI会“处以为是”的“增强”问答
  • 如何减缓AI幻觉
    - 增加AI数据库的容量,使AI能从既有事实经验中得到更准确的结果
    - 交叉验证,使用不同的AI工具相互验证结果 -- 同样要有自我的经验判断
    - 提示词技巧:少开放性问题(推理性),多指令性问题;复杂问题简单化,问题层层递进、迭代,增加连界约束,增加结果验证、反思步骤
      > RAG框架:利用检索增强生成(如先搜索权威数据库,再生成答案)
      > 外部知识库:结合外部知识库,砍通用知识,强化垂直领域
      > 精细训练:针对不同任务类型进行具体的微调或强化
      > 评估工具:开发高效的自动化AI幻觉识别工具,对生成内容进行及时验证

    - 应对AI幻觉
      > 三角验证法:交叉比对多个AI回答或权威来源。
      > 警惕“过度合理”:越细节丰富的回答越需谨慎(如AI虚构论文标题与作者)。-- 只回答你想听到的,过度迎合:需要关注提示词有意向引导
      > 理解幻觉,享受幻觉:理解幻觉的特点和应对方法,享受幻觉带来的创意灵感 -- 创造性
  • AI幻觉的创造力价
    - 科学发现:从“错误”到突破的范式跃迁 -- AI的胡说八道带给我们的判断和新思考
    - 文艺与设计:突破人类思维定式的“超现实引擎” -- 非量化的创新,带来不一样的天马行空,灵感
    - 乐与游戏:创造新的视觉和听觉体验
    - 技术创新:从“缺陷”到方法论的转化 -- 不一样的思考方式、不同角色和行业的思维融合
      新型科研范式:科学界正构建“AI幻觉-实验验证-理论重构”的三阶段研究流程 -- 狂创意→理性筛选

提问:AI幻觉

DeepSeek文心一言

I幻觉(AI Hallucination)是指人工智能模型(尤其是生成模型,如大型语言模型或图像生成模型)在生成内容时,产生与输入不符、不符合事实或逻辑上不合理的输出。这种现象通常是因为模型在训练数据中学习到的模式不够准确,或者在生成过程中缺乏对真实世界的精确理解。


AI幻觉的表现

  1. 文本生成中的幻觉

    • 生成与输入无关的内容。

    • 提供错误的事实或虚构的信息(例如,编造不存在的书籍、事件或人物)。

    • 在逻辑推理中出现矛盾或不合常理的结论。

  2. 图像生成中的幻觉

    • 生成不符合物理规律的图像(例如,扭曲的物体、不合理的透视关系)。

    • 生成与文本描述不符的图像(例如,描述“一只猫在草地上”,但生成的图像中猫有六条腿)。

    • 生成包含虚假细节的图像(例如,虚构的建筑物或风景)。

  3. 多模态生成中的幻觉

    • 在文本到图像生成中,生成的图像与文本描述不完全匹配。

    • 在视频生成中,生成的视频帧之间缺乏连贯性。


AI幻觉的原因

  1. 训练数据的局限性

    • 模型训练数据可能不全面或存在偏差,导致模型无法准确理解某些概念或场景。

    • 数据中可能包含噪声或错误信息,影响模型的学习。

  2. 模型的生成机制

    • 生成模型(如GPT、DALL·E)基于概率生成内容,可能会优先选择高频模式,而忽略低频但正确的模式。

    • 模型缺乏对真实世界的物理和逻辑规则的深刻理解。

  3. 输入的模糊性

    • 如果用户输入模糊或不明确,模型可能会生成与预期不符的内容。

    • 模型可能会过度解读或错误解读输入中的某些细节。

  4. 缺乏实时反馈机制

    • 模型在生成过程中无法实时验证内容的正确性或合理性。


AI幻觉的影响

  1. 误导用户

    • 如果用户依赖AI生成的内容,可能会被错误信息误导。

    • 在教育、医疗等关键领域,AI幻觉可能导致严重后果。

  2. 降低信任度

    • 频繁的幻觉会降低用户对AI系统的信任。

  3. 增加人工审核成本

    • 为了确保生成内容的准确性,可能需要额外的人工审核。


解决AI幻觉的方法

  1. 改进训练数据

    • 使用更高质量、更全面的数据集进行训练。

    • 引入领域专家审核数据,确保数据的准确性和多样性。

  2. 引入外部知识

    • 将模型与知识库(如维基百科、专业数据库)结合,增强模型对事实的理解。

    • 使用检索增强生成(RAG)技术,实时检索相关信息辅助生成。

  3. 模型优化

    • 引入逻辑推理模块,增强模型对物理和逻辑规则的理解。

    • 使用对抗训练或强化学习,减少生成不合理内容的概率。

  4. 用户反馈机制

    • 允许用户对生成内容进行反馈,帮助模型不断改进。

    • 提供“不确定性提示”,让用户知道生成内容可能存在错误。

  5. 多模态验证

    • 在多模态任务中,通过多种模态(如文本、图像、音频)相互验证,减少幻觉。


实际案例

  1. ChatGPT的幻觉

    • 当被问及某个不存在的历史事件时,ChatGPT可能会编造一个看似合理但完全虚构的故事。

  2. DALL·E的幻觉

    • 当输入“一只猫在弹钢琴”时,DALL·E可能会生成一只猫与钢琴分离的图像,或者猫的形态不符合现实。


AI幻觉是当前生成式AI面临的重要挑战之一,但随着技术的进步和方法的改进,这一问题有望逐步得到缓解。

AI幻觉是指人工智能系统(尤其是自然语言处理模型)生成的内容与真实数据不符,或偏离用户指令的现象。以下是对AI幻觉的详细解析:

一、AI幻觉的类型

AI幻觉主要分为两类:事实幻觉和忠诚度幻觉。

  1. 事实幻觉:指AI生成的内容与现实世界事实相矛盾。这包括事实不一致和事实捏造两种情况。例如,当被问及“世界上最高的山峰是哪座”时,如果AI回答“深圳塘朗山是世界上最高的山峰”,这就是一个事实不一致的例子。另外,如果AI描述说“2024年,考古学家在埃及金字塔内发现了一座隐藏的密室,里面藏有古代法老的宝藏和未知的高科技装置”,这就是完全虚构的信息,属于事实捏造。

  2. 忠诚度幻觉:指AI的回答偏离用户的要求或上下文信息。这包括指令不一致、上下文不一致和逻辑不一致三种情况。例如,如果用户要求AI“讲解一下龙飞凤舞”,但AI回答了“老铁,我给你搜了几段舞蹈教学”,这就完全偏离了原始的问题,属于指令不一致。另外,如果在一个讨论中国传统节日的上下文中,AI说“春节是纪念屈原的节日,人们会吃粽子和赛龙舟”,这就是上下文不一致的例子。逻辑不一致则是指AI的输出存在内在逻辑矛盾。

二、AI幻觉的特点

  1. 内容流畅性:尽管内容可能有误,AI生成的文本通常仍然连贯流畅。

  2. 表面合理性:生成的内容表面上看起来可信,给人以“这看起来很对”的第一印象,非专业人士难以辨别。

  3. 上下文相关:AI的幻觉内容并非凭空出现,它们通常与特定的上下文情境紧密相关。

  4. 不可预测性:很难预测AI何时会产生幻觉,且幻觉可能很难复现。

三、AI幻觉的产生原因

  1. 数据问题

    • 数据缺陷:训练数据可能包含错误、偏见或过时信息。

    • 知识边界:AI存在领域知识缺陷,可能无法覆盖所有相关知识。

    • 利用率低:AI在利用数据时可能过度依赖某些模式,导致在新情况下推导错误。

  2. 训练过程问题

    • 预训练和对齐阶段问题:预训练阶段学习通用表示并获取世界知识,对齐阶段微调模型使其更好地与人类偏好一致,这两个阶段可能出现问题导致幻觉。

    • 架构缺陷:基于前一个token预测下一个token的单向建模方式可能阻碍模型捕获复杂的上下文关系。

    • 曝露偏差:模型推理时依赖于自己生成的token进行后续预测,可能导致级联错误。

  3. 模型本身问题

    • 模型结构限制:AI通过统计模式预测,但可能无法真正理解信息。

    • 能力错位:大模型内在能力与标注数据中描述的功能之间可能存在错位。

    • 信念错位:模型有时会倾向于迎合人类偏好,从而牺牲信息真实性。

四、如何避免AI幻觉

  1. 提示工程:通过优化AI的输入提示,使生成的内容更准确。例如,使用检索增强生成(RAG)技术,在内容生成前、中、后阶段检索并整合外部知识,确保内容的准确性和时效性。

  2. 模型开发:不断进化AI模型与训练过程是减少幻觉产生的关键。可以采用创新解码技术、知识图谱的应用、基于忠实度的损失函数以及监督微调等方法来提升模型的准确性和可靠性。

  3. AI Agent:为模型加Buff,提高模型的可靠性。例如,使用程序辅助语言模型(PAL)技术,将程序化逻辑嵌入到语言模型中,使AI能够执行特定的程序或算法来完成任务。

五、AI幻觉的实例

在实际应用中,AI幻觉可能导致严重的问题。例如,在商标侵权案件中,原告通过非正常搜索触发搜索引擎系统故障,导致大模型出现幻觉,认为被告的推广页面是“正确答案”,从而输出了貌似侵权的结果。这类案件的发生提醒我们,在使用AI技术时需要谨慎对待其生成的内容,并进行充分的核实和审查。

综上所述,AI幻觉是人工智能系统在使用过程中可能出现的一种现象。了解AI幻觉的类型、特点、产生原因以及避免方法对于提高AI技术的准确性和可靠性具有重要意义。


http://www.kler.cn/a/569686.html

相关文章:

  • 数字人技术再超越,TANGO 可生成与音频匹配的全身手势视频
  • Ubuntu20.04下各类常用软件及库安装汇总(联想Y9000P24款)
  • AI产品经理W1D4埋点设计数据采集
  • java关键字-instanceof
  • 具身智能(Embodied AI)的物理交互基准测试:构建真实世界的智能体评估体系
  • 奇妙跨界:将前端概念融入整数操作
  • Python 爬虫 – BeautifulSoup
  • Linux常见基本指令(二)
  • 批量提取 Word 文档中的页面
  • php序列化与反序列化
  • 迷你世界脚本世界接口:World
  • 矩阵 trick 系列 题解
  • 算法日常刷题笔记(3)
  • 【R语言】PCA主成分分析
  • 计算机毕业设计SpringBoot+Vue.js常规应急物资管理系统(源码+文档+PPT+讲解)
  • 梳理vite构建vue项目可选的配置和组件
  • 匿名内部类与Lambda表达式不理解点
  • 第34周:文献阅读
  • 基于SSM实现的bbs论坛系统功能实现九
  • git管理的项目 发布时有收费版/免费版/客户定制版,如何管理分支,通过merge(合并) 还是 cherry-pick(挑拣) 引入更新的代码?