AIGC(生成式AI)试用 26 -- 跟着清华教程学习 - DeepSeek与AI幻觉
目标:继续学习
个人理解:
- AI幻觉:一本正经的胡说八道,你还觉得很道理,倾向于相信;事实不一致,指令(预期)与实际不一致:跑题
- 潜在风险:把AI带坏了;信息误导、过度信任导致的误判、失控、恶意利用,伦理不设限(比如回答中可以带脏话)
- 事实幻觉? -- 指AI生成的内容与现实世界事实相矛盾
- RAG:RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合了检索和生成的技术,旨在提高语言模型生成内容的准确性和可靠性。RAG的核心思想是通过从外部知识库中检索相关信息,辅助模型生成更符合事实、更高质量的文本。
- AI幻觉,有风险,同样存在迷之创造,可能帮你打开新思路,关键是你如何提问和使用
DeepSeek与AI幻觉
- 什么是AI幻觉
- 学术:指模型生成与事实不符、逻辑断裂或脱离上下文的内容,本质是统计概率驱动的“合理猜测”
- 说人话:一本正经地胡说八道
- 事实性幻觉:指模型生成的内容与可验证的现实世界事实不一致
- 忠实性幻觉:指模型生成的内容与用户的指令或上下文不一致
提问:画一幅画:有山 、有河、有人、有飞机、有大炮、有亭子、有跑车、有雪、有瀑布 -- 这样的场景存在吗?
- DeepSeek为什么会产生幻觉
- 数据偏差:训练数据中的错误或片面性被模型放大(如医学领域过时论文导致错误结论)-- 错误引导
- 泛化困境:模型难以处理训练集外的复杂场景(如南极冰层融化对非洲农业的影响预测)-- 解构、重构偏离实际
- 知识固化:模型过度依赖参数化记忆,缺乏动态更新能力(如2023年后的事件完全虚构)-- 知识库更新不及时
- 意图误解:用户提问模糊时,模型易“自由发挥”(如“介绍深度学习”可能偏离实际需求)-- 自主意识?
- 主观较多的内容一般不易产生幻觉 -- 正确性评价缺少量化,多以描述为主(非数据化度量),结果与评价人喜好、所处的文化环境、语境有极大关系
- AI幻觉的潜在风险
> 信息污染风险:由于DeepSeek的低门槛和普及度高,大量AI生成内容涌入中文互联网,加剧了虚假信息传播的“雪球效应”,甚至污染下一代模型训练数据
> 信任危机:普通用户难以辨别AI内容的真实性,可能对医疗建议、法律咨询等专业场景的可靠性产生长期怀疑
> 控制欠缺:DeepSeek的对齐工作较其他闭源大模型有所欠缺,其开源特性也允许使用者随意使用,可能会成为恶意行为的工具
> 安全漏洞:若错误信息被用于自动化系统(如金融分析、工业控制),可能引发连锁反 - AI幻觉评测
- 不同模型、相同条目的通用提示语、相同应用场景 -- 人工判断、标注、交叉验证
- 不同模型、相同条目、随机抽取事实幻觉测试题 -- 事实幻觉?
- 推理逻辑能力强,幻觉率减少,同样AI会“处以为是”的“增强”问答 - 如何减缓AI幻觉
- 增加AI数据库的容量,使AI能从既有事实经验中得到更准确的结果
- 交叉验证,使用不同的AI工具相互验证结果 -- 同样要有自我的经验判断
- 提示词技巧:少开放性问题(推理性),多指令性问题;复杂问题简单化,问题层层递进、迭代,增加连界约束,增加结果验证、反思步骤
> RAG框架:利用检索增强生成(如先搜索权威数据库,再生成答案)
> 外部知识库:结合外部知识库,砍通用知识,强化垂直领域
> 精细训练:针对不同任务类型进行具体的微调或强化
> 评估工具:开发高效的自动化AI幻觉识别工具,对生成内容进行及时验证
- 应对AI幻觉
> 三角验证法:交叉比对多个AI回答或权威来源。
> 警惕“过度合理”:越细节丰富的回答越需谨慎(如AI虚构论文标题与作者)。-- 只回答你想听到的,过度迎合:需要关注提示词有意向引导
> 理解幻觉,享受幻觉:理解幻觉的特点和应对方法,享受幻觉带来的创意灵感 -- 创造性 - AI幻觉的创造力价
- 科学发现:从“错误”到突破的范式跃迁 -- AI的胡说八道带给我们的判断和新思考
- 文艺与设计:突破人类思维定式的“超现实引擎” -- 非量化的创新,带来不一样的天马行空,灵感
- 乐与游戏:创造新的视觉和听觉体验
- 技术创新:从“缺陷”到方法论的转化 -- 不一样的思考方式、不同角色和行业的思维融合
新型科研范式:科学界正构建“AI幻觉-实验验证-理论重构”的三阶段研究流程 -- 狂创意→理性筛选
提问:AI幻觉
DeepSeek | 文心一言 |
I幻觉(AI Hallucination)是指人工智能模型(尤其是生成模型,如大型语言模型或图像生成模型)在生成内容时,产生与输入不符、不符合事实或逻辑上不合理的输出。这种现象通常是因为模型在训练数据中学习到的模式不够准确,或者在生成过程中缺乏对真实世界的精确理解。 AI幻觉的表现
AI幻觉的原因
AI幻觉的影响
解决AI幻觉的方法
实际案例
AI幻觉是当前生成式AI面临的重要挑战之一,但随着技术的进步和方法的改进,这一问题有望逐步得到缓解。 | AI幻觉是指人工智能系统(尤其是自然语言处理模型)生成的内容与真实数据不符,或偏离用户指令的现象。以下是对AI幻觉的详细解析: 一、AI幻觉的类型 AI幻觉主要分为两类:事实幻觉和忠诚度幻觉。
二、AI幻觉的特点
三、AI幻觉的产生原因
四、如何避免AI幻觉
五、AI幻觉的实例 在实际应用中,AI幻觉可能导致严重的问题。例如,在商标侵权案件中,原告通过非正常搜索触发搜索引擎系统故障,导致大模型出现幻觉,认为被告的推广页面是“正确答案”,从而输出了貌似侵权的结果。这类案件的发生提醒我们,在使用AI技术时需要谨慎对待其生成的内容,并进行充分的核实和审查。 综上所述,AI幻觉是人工智能系统在使用过程中可能出现的一种现象。了解AI幻觉的类型、特点、产生原因以及避免方法对于提高AI技术的准确性和可靠性具有重要意义。 |