RAG核心概念
前提
目前网络上针对大模型有两种声音,一种是说AI展现出了惊人惊叹的强大能力,仿佛无所不能,可以解决博士级别科学问题。另一种声音说AI就是资本炒作,出现胡说八道的现象。其根源就是AI的“幻觉”问题,也就是业界所称的“AI Hallucination”现象。
AI出现“幻觉”现象的原因
- 主要因素是其工作原理中的概率生成机制,在生成文本时,大型语言模型依赖统计概率来预测下一个最可能的词语,而不是基于事实进行查询,这可能引致信息错误。
- 此外AI的回答局限在训练数据的范围内,大模型并不掌握你的个人信息或公司内部的私有信息,对于超出训练数据范围的问题,就容易胡说八道。
解决方法
现阶段基于Transformers架构的模型还无法彻底杜绝AI幻觉,不过给大模型外挂知识库就可以补齐知识短板,就能有效减少AI幻觉问题,这一方法就是RAG(Retrieval-Augmented Generation):检索增强生成。