深度学习-92-大语言模型LLM之基于langchain的模型IO的模型调用
文章目录
- 1 Model的输入输出
- 2 langchain支持的模型
- 3 调用Ollama模型
-
- 3.1 设置环境变量
- 3.2 大语言模型LLM(OllamaLLM)
-
- 3.2.1 生成文本补全
- 3.2.2 流式生成文本补全
- 3.3 聊天模型(ChatOllama)
-
- 3.3.1 内置的消息类型
- 3.3.2 HumanMessage和SystemMessage
- 3.3.3 元组方式构成消息列表
- 3.3.4 stream流式
- 3.4 文本嵌入模型(OllamaEmbeddings)
- 4 参考附录
1 Model的输入输出
LangChain的模型是框架中的核心,基于语言模型构建,用于开发LangChain应用。
通过API调用大模型来解决问题是LangChain应用开发的关键过程。
可以把对模型的使用过程拆解成三块: 输入提示(Prompt)、调用模型(Model)、输出解析(Parse)。
(1)提示模板: LangChain的模板允许动态选择输入,根据实际需求调整输入内容,适用于各种特定任务和应用。
(2)语言模型: LangChain提供通用接口调用不同类型的语言模型,提升了灵活性和使用便利性。
(3)输出解析: 利用LangChain的输出解析功能,精准提取模型输出中所需信息,避免处理冗余数据,同时将非结构化文本转换为可处理的结构化数据,提高信息处理效率。
这三块形成了一个整体,在LangChain中这个过程被统称为Model输入或输出。针对每块环节,LangChain都提供了模板和工具,可以帮助快捷的调用各种语言模型的接口。
2 langchain支持的模型
LangChain支持的模型有三大类ÿ