当前位置: 首页 > article >正文

LangChain开发(七)自定义输出格式(JSON/XML/YAML)

文章目录

  • JSON结构输出
    • 未使用Pydantic
    • Pydantic
    • 流式处理
  • XML结构输出
    • xml输出
    • 指定字段
  • YAML输出
  • 源码地址
  • 参考资料

JSON结构输出

虽然一些模型提供商支持内置的方法返回结构化输出,但并非所有都支持。我们可以使用输出解析器来帮助用户通过指示指定任意的JSON模型,查询符合该模式的模型输出,最后将该模式解析为JSON。

JsonOutputParser是一个内置选项,用于提示并解析JSON输出。虽然它在功能上类似于PydanticOutputParser,但它还支持流式返回部分JSON对象。

以下是如何将其与Pydantic一起使用以方便地声明预期模式的示例:

未使用Pydantic

让大模型生成json结构

from langchain_core.output_parsers import JsonOutputParser
from langchain_core.prompts import PromptTemplate
from langchain_openai import ChatOpenAI
import os

model = ChatOpenAI(model="gpt-4o", temperature=0)

joke_query = "告诉我一个笑话."
parser = JsonOutputParser()
prompt = PromptTemplate(
    template="回答用户的查询.\n{format_instructions}\n{query}\n",
    input_variables=["query"],
    partial_variables={"format_instructions": parser.get_format_instructions()},
)
chain = prompt | model | parser
response = chain.invoke({"query": joke_query})
print(response)
{'joke': '为什么电脑去医院?因为它需要检查一下‘病毒’!'}

Pydantic

让大模型生成指定结构的数据,结构为class Joke

from langchain_core.output_parsers import JsonOutputParser
from langchain_core.prompts import PromptTemplate
from pydantic import BaseModel, Field
from langchain_openai import ChatOpenAI

model = ChatOpenAI(model="gpt-4o", temperature=0)

# 定义期望的数据结构
class Joke(BaseModel):
    setup: str = Field(description="设置笑话的问题")
    punchline: str = Field(description="解决笑话的答案")

joke_query = "告诉我一个笑话."
parser = JsonOutputParser(pydantic_object=Joke)
prompt = PromptTemplate(
    template="回答用户的查询.\n{format_instructions}\n{query}\n",
    input_variables=["query"],
    partial_variables={"format_instructions": parser.get_format_instructions()},
)
chain = prompt | model | parser
response = chain.invoke({"query": joke_query})
print(response)

输出示例:

{'setup': '为什么计算机不能喝咖啡?', 'punchline': '因为它们会崩溃!'}

请注意,我们将解析器中的format_instructions直接传递到提示中。可以并且应该尝试在提示的其他部分中添加自己的格式提示,以增强或替换默认指令:

parser.get_format_instructions()

流式处理

如上所述,JsonOutputParserPydanticOutputParsr之间的一个关键区别是JsonOutputParser输出解析器支持流式处理部分块。以下是其示例:

from langchain_core.output_parsers import JsonOutputParser
from langchain_core.prompts import PromptTemplate
from langchain_openai import ChatOpenAI

model = ChatOpenAI(model="gpt-4o", temperature=0)

joke_query = "告诉我一个笑话."
parser = JsonOutputParser()
prompt = PromptTemplate(
    template="回答用户的查询.\n{format_instructions}\n{query}\n",
    input_variables=["query"],
    partial_variables={"format_instructions": parser.get_format_instructions()},
)
chain = prompt | model | parser
response = chain.invoke({"query": joke_query})
for s in chain.stream({"query": joke_query}):
    print(s)

输出示例:

{}
{'joke': '为什么'}
{'joke': '为什么电脑去医院?因为它'}
{'joke': '为什么电脑去医院?因为它需要检查一下‘'}
{'joke': '为什么电脑去医院?因为它需要检查一下‘病毒’!'}

XML结构输出

下面使用XMLOutParser来提示模型生成XML输出,然后将该输出解析为可用的格式。

xml输出

我们可以使用XMLOutputParser将默认的格式指令添加到提示中,并将输出的XML解析为字典:

from langchain_core.output_parsers import XMLOutputParser
from langchain_core.prompts import PromptTemplate
from langchain_openai import ChatOpenAI
import os
# pip install defusexml

model = ChatOpenAI(
    api_key=os.getenv("DASHSCOPE_API_KEY"),
    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
    model="qwen-turbo",
    temperature=0
)

action_query = "生成周星驰的简化电影作品列表,按照最新的顺序降序"
parser = XMLOutputParser()
prompt = PromptTemplate(
    template="回答用户的查询.\n{format_instructions}\n{query}\n",
    input_variables=["query"],
    partial_variables={"format_instructions": parser.get_format_instructions()},
)
chain = prompt | model
response = chain.invoke({"query": action_query})
xml_output = parser.parse(response.content)
print(response.content)

输出示例:

```xml
<movie_list>
    <movie>
        <title>美人鱼</title>
        <year>2016</year>
    </movie>
    <movie>
        <title>西游降魔篇</title>
        <year>2013</year>
    </movie>
    <movie>
        <title>长江七号</title>
        <year>2008</year>
    </movie>
    <movie>
        <title>功夫</title>
        <year>2004</year>
    </movie>
    <movie>
        <title>少林足球</title>
        <year>2001</year>
    </movie>
</movie_list>
```

我们还可以添加一些标签以根据我们的需求定制输出。可以在提示的其他部分中尝试添加自己的格式提示,以增强或替换默认指令:

指定字段

# 指定字段名称
from langchain_core.output_parsers import XMLOutputParser
from langchain_core.prompts import PromptTemplate
from langchain_openai import ChatOpenAI
import os
# pip install defusexml

model = ChatOpenAI(
    api_key=os.getenv("DASHSCOPE_API_KEY"),
    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
    model="qwen-turbo",
    temperature=0
)

joke_query = "生成周星驰的简化电影作品列表,按照最新的顺序降序"
parser = XMLOutputParser(tags=["movies", "actor", "film", "name", "genre"])
prompt = PromptTemplate(
    template="回答用户的查询.\n{format_instructions}\n{query}\n",
    input_variables=["query"],
    partial_variables={"format_instructions": parser.get_format_instructions()},
)
chain = prompt | model
response = chain.invoke({"query": joke_query})
xml_output = parser.parse(response.content)
print(response.content)

输出示例:

```xml
<movies>
    <actor>
        <name>周星驰</name>
        <film>
            <name>美人鱼</name>
            <genre>喜剧</genre>
        </film>
        <film>
            <name>西游降魔篇</name>
            <genre>奇幻, 喜剧</genre>
        </film>
        <film>
            <name>功夫</name>
            <genre>动作, 喜剧</genre>
        </film>
        <film>
            <name>少林足球</name>
            <genre>喜剧, 动作</genre>
        </film>
    </actor>
</movies>
```

YAML输出

我们使用PydanticYamlOutputParser输出指定的YAML格式

from langchain.output_parsers import YamlOutputParser
from langchain_core.prompts import PromptTemplate
from pydantic import BaseModel, Field
from langchain_openai import ChatOpenAI
import os

class Joke(BaseModel):
    setup: str = Field(description="设置笑话的问题")
    punchline: str = Field(description="解决笑话的答案")


model = ChatOpenAI(
    api_key=os.getenv("DASHSCOPE_API_KEY"),
    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
    model="qwen-turbo",
    temperature=0
)

joke_query = "告诉我一个笑话."
# 设置一个解析器 + 将指令注入到提示模板中.
parser = YamlOutputParser(pydantic_object=Joke)
prompt = PromptTemplate(
    template="回答用户的查询.\n{format_instructions}\n{query}\n",
    input_variables=["query"],
    partial_variables={"format_instructions": parser.get_format_instructions()},
)
chain = prompt | model
print(parser.get_format_instructions())
response = chain.invoke({"query": joke_query})
print(response.content)

以上就是让大模型输出指定格式输出示例

源码地址

https://github.com/lys1313013/langchain-example/tree/main/08-output-parser

参考资料

B站:2025吃透LangChain大模型全套教程(LLM+RAG+OpenAI+Agent)第6集后半段

LangChain官网 JSON parser

LangChain官网 XML parser

LangChain官网 YAMLparser


http://www.kler.cn/a/611128.html

相关文章:

  • AF3 Rotation类的map_tensor_fn 方法解读
  • 蓝桥杯 残缺的数字
  • Linux <(...) 进程替换
  • Photoshop 2025安装包下载及Photoshop 2025详细图文安装教程
  • 2025Java面试TOP1000问:源码级解答+避坑指南+性能优化
  • 在线文档导出为word/pdf/png
  • springBoot中雪花算术法
  • (番外篇一)学习webgl是先从现有的框架还是直接从底层开始学?
  • 特斯拉Optimus 2.0:多模态感知与强化学习引领家庭场景变革
  • 解决Vmware 运行虚拟机Ubuntu22.04卡顿、终端打字延迟问题
  • Python个人学习笔记(19):模块(正则表达式)
  • 车载以太网网络测试 -24【SOME/IP概述】
  • 深度学习框架PyTorch——从入门到精通(10)PyTorch张量简介
  • react 15-16-17-18各版本的核心区别、底层原理及演进逻辑的深度解析
  • 【学Rust写CAD】11 2D CAD可用rust库
  • 详细介绍sentinel的使用,并列举经常出的面试题以及答案
  • xml文件
  • PAT甲级(Advanced Level) Practice 1028 List Sorting
  • 在 Ubuntu 下通过 Docker 部署 Misskey 服务器的详细技术博客
  • Sentinel 限流利器(功能以及源码解析)