大模型:LangChain技术讲解
一、什么是LangChain
1、介绍
LangChain是一个用于开发由大型语言模型提供支持的Python框架。它提供了一系列工具和组件,帮助我们将语言模型集成到自己的应用程序中。
有了它之后,我们可以更轻松地实现对话系统、文本生成、文本分类、问答系统等功能。
2、LangChain官网文档
官网:https://python.langchain.com/docs/introduction/
3、LangChain的核心组件
- 语言模型(Model):如OpenAI的GPT-3。
- 提示管理(Prompt):Prompt管理。
- 链(chain):允许将多个组件(如语言模型、提示模板、记忆等)串联起来,形成一个工作流。
- 记忆(Memory):记忆模块用于保存对话历史或上下文信息,以便在后续对话中使用。
- 代理(Agent):代理是一种智能组件,可以根据用户的输入自动选择和执行不同的操作。
- 工具(Tool):工具是一些内置的功能模块,如文本处理工具、数据查询工具等。
二、语言模型
1、介绍
把不同的模型,统一封装成一个接口,方便更换模型而不用重构代码。以下是使用语言模型从输入到输出的基本流程:
一下是对每一块的总结:
- Format(格式化):将原始数据格式化成模型可以处理的形式,插入到一个模版问题中,然后送入模型进行处理。
- Predict(预测):接受被送进来的问题,然后基于这个问题进行预测或生成回答。
- parse(生成):预测输出被进一步格式化成一个结构化的JSON对象。
2、单轮对话
3、多轮对话
# 1、创建模型
from langchain_core.messages import SystemMessage, HumanMessage, AIMessage
from langchain_ollama import ChatOllama
ollama = ChatOllama(base_url='http://localhost:11434', model="qwen2")
messages = [
SystemMessage(content="你是langchain的课程助理。"),
HumanMessage(content="我是学员,我叫 Tom"),
AIMessage(content="欢迎"), # 提前模拟场景,为后续交互做准备
HumanMessage("我是谁,你是谁")
]
print(ollama.invoke(messages).content)
通过这种方式,我们可以:
- 测试AI模型在特定上下文下的表现。
- 确保AI模型能够正确理解并响应用户的输入。
- 调整和优化对话流程,以便在实际应用中提供更好的用户体验。
三、格式化输出
1、OutputParser
CSV parser当您想要返回以逗号分隔的项目列表时,可以使用此输出解析器。
from langchain_core.output_parsers import CommaSeparatedListOutputParser
output_parser = CommaSeparatedListOutputParser()
# 返回一些指令或模版,这些指令告诉系统如何解析或格式化输出数据
print(output_parser.get_format_instructions())
# 输入的字符串按照特定的规则进行解析和转换
reply = 'foo,bar,baz'
print(output_parser.parse(reply))