当前位置: 首页 > article >正文

LangChain:使用表达式语言优化提示词链

在 LangChain 里,LCEL 即 LangChain Expression Language(LangChain 表达式语言),本文为你详细介绍它的定义、作用、优势并举例说明,从简单示例到复杂组合示例,让你快速掌握LCEL表达式语言使用技巧。

定义

LangChain Expression Language(LCEL)是 LangChain 推出的一种用于构建和编排链(chains)、代理(agents)等组件的声明式语言。它允许开发者以一种简洁、直观的方式将不同的 LangChain 组件组合在一起,定义复杂的工作流,而无需编写大量的传统 Python 代码来实现组件之间的连接和交互。
在这里插入图片描述

作用

  • 快速构建工作流:能够快速将各种 LangChain 组件(如大语言模型、提示模板、工具等)组合成一个完整的工作流。例如,开发者可以轻松地将一个大语言模型与特定的提示模板以及一些外部工具(如搜索引擎、数据库查询工具)组合在一起,实现一个具备信息检索和知识问答功能的应用。
  • 清晰表达逻辑:以声明式的方式描述组件之间的交互逻辑,使得代码更加清晰易懂。无论是简单的线性流程还是复杂的分支、循环逻辑,都能通过 LCEL 清晰地表达出来,便于开发者理解和维护。
  • 灵活配置和调整:方便开发者对工作流进行灵活的配置和调整。可以根据不同的需求,快速替换工作流中的某个组件,或者修改组件之间的连接方式,而不需要对整个代码结构进行大规模的改动。

优势

  • 简洁性:相比传统的 Python 代码实现方式,LCEL 代码更加简洁。它减少了大量的样板代码,让开发者能够更专注于业务逻辑的定义,提高了开发效率。
  • 可读性:声明式的语法使得代码的可读性大大提高。即使是非专业的开发者也能快速理解工作流的整体结构和各个组件之间的关系,便于团队协作和知识共享。
  • 可组合性:支持将多个较小的工作流组合成更大、更复杂的工作流。这种高度的可组合性使得开发者可以根据不同的场景和需求,灵活地构建各种复杂的应用。
    在这里插入图片描述

简单示例

以下是一个简单的 LCEL 示例,展示了如何使用 LCEL 构建一个基本的问答链:

from langchain.chat_models import ChatOpenAI
from langchain.prompts import ChatPromptTemplate
from langchain.schema.runnable import RunnablePassthrough
import os

# 设置 OpenAI API 密钥
os.environ["OPENAI_API_KEY"] = "your_openai_api_key"

# 初始化大语言模型
llm = ChatOpenAI(temperature=0)

# 定义提示模板
prompt = ChatPromptTemplate.from_messages([
    ("human", "{question}")
])

# 使用 LCEL 构建链
chain = (
    RunnablePassthrough.assign() 
    | prompt 
    | llm
)

# 提出问题
question = "苹果公司是哪一年成立的?"
answer = chain.invoke({"question": question})

print(f"问题: {question}")
print(f"答案: {answer.content}")

在这个示例中,首先初始化了 OpenAI 的聊天模型和一个简单的提示模板。然后使用 LCEL 的语法,通过 | 符号将 RunnablePassthrough、提示模板和大语言模型连接起来,构建了一个完整的问答链。最后,向链中输入一个问题,调用 invoke 方法获取模型的回答并打印输出。

提示词链组合示例

我们只需将标题值嵌入到下一个提示模板中,并使用RunnablePassthrough。现在,如果我们想进一步延长这个过程,我们可以简单地重复该过程。

import streamlit as st
from langchain.chat_models import ChatOpenAI
from langchain.prompts import PromptTemplate
from langchain.schema import StrOutputParser
from langchain.schema.runnable import RunnablePassthrough

st.title('Story Creator')
topic = st.text_input('Choose a topic to create a story about')

title_prompt = PromptTemplate.from_template(
    "Write a great title for a story about {topic}"
)

story_prompt = PromptTemplate.from_template(
    """You are a writer. Given the title of story, it is your job to write a story for that title.

Title: {title}"""
)

llm = ChatOpenAI()

title_chain = title_prompt | llm | StrOutputParser()
story_chain = story_prompt | llm | StrOutputParser()
chain = {"title": title_chain} | RunnablePassthrough.assign(story=story_chain)

if topic:
    result = chain.invoke({"topic": topic})
    st.header(result['title'])
    st.write(result['story'])

这里主要解释下核心代码:

  • streamlit是一个用于快速构建数据应用和 Web 界面的 Python 库。如果未接触过,可以简单理解未html表单,下面是设置表单页面标题,然后定义输入文本框。

  • st.title('Story Creator'):在 Streamlit 应用中设置页面标题为 Story Creator

  • st.text_input('Choose a topic to create a story about'):创建一个文本输入框,提示用户输入一个用于创作故事的主题,并将用户输入的值存储在变量 topic 中。

  • title_chain:将 title_promptllmStrOutputParser| 操作符连接起来,形成一个链。这个链的作用是根据用户输入的主题生成故事标题,并将模型的输出解析为字符串。

  • story_chain:将 story_promptllmStrOutputParser| 操作符连接起来,形成一个链。这个链的作用是根据生成的标题创作故事,并将模型的输出解析为字符串。

  • chain:将 title_chainstory_chain 组合起来。{"title": title_chain} 表示将 title_chain 的输出作为键为 title 的值,RunnablePassthrough.assign(story=story_chain) 表示将 story_chain 的输出作为键为 story 的值,最终形成一个包含标题和故事内容的结果。

现在我们知道如何用RunnablePassthrough传递值。下面我们想进一步延长这个过程,我们可以简单地重复该过程。

import streamlit as st
from langchain.chat_models import ChatOpenAI
from langchain.prompts import PromptTemplate
from langchain.schema import StrOutputParser
from langchain.schema.runnable import RunnablePassthrough

st.title('Story Creator')
topic = st.text_input('Choose a topic to create a story about')

title_prompt = PromptTemplate.from_template(
    "Write a great title for a story about {topic}"
)

story_prompt = PromptTemplate.from_template(
    """You are a writer. Given the title of story, it is your job to write a story for that title.

Title: {title}"""
)

review_prompt = PromptTemplate.from_template(
    """You are a critic. Given a story, it is your job to write a review for that story.

Title: {title}
Story: {story}"""
)

llm = ChatOpenAI()

title_chain = title_prompt | llm | StrOutputParser()
story_chain = story_prompt | llm | StrOutputParser()
review_chain = review_prompt | llm | StrOutputParser()
chain = ({"title": title_chain}
         | RunnablePassthrough.assign(story=story_chain)
         | RunnablePassthrough.assign(review=review_chain))

if topic:
    result = chain.invoke({"topic": topic})
    st.header(result['title'])
    st.write(result['story'])
    st.header("Review")
    st.write(result['review'])

该示例在之前基础上,增加了评论功能。

总结

LCEL能够快速将各种 LangChain 组件(如大语言模型、提示模板、工具等)组合成一个完整的工作流。让开发者可以轻松地将大语言模型与特定的提示模板以及一些外部工具组合在一起,灵活地满足各类需求应用。


http://www.kler.cn/a/522308.html

相关文章:

  • JVM栈溢出线上环境排查
  • 关于产品和技术架构的思索
  • HarmonyOS DevEco Studio模拟器点击运行没有反应的解决方法
  • 设计模式的艺术-策略模式
  • 数字化转型-工具变量(2024.1更新)-社科数据
  • JavaScript_02 表单
  • 论文阅读(三):微阵列数据的图形模型和多变量分析
  • UF_CAM常用函数
  • C++ - AVL平衡二叉树
  • 一. 初始 Redis(快速入门-00)
  • KMP算法原理 JAVA实现
  • 缓存穿透和缓存雪崩
  • C#/.NET/.NET Core技术前沿周刊 | 第 23 期(2025年1.20-1.26)
  • deepseek-r1技术报告解析
  • 在RHEL 8.10上安装开源工业物联网解决方案Thingsboard 3.9
  • 【Linux】互斥锁、基于阻塞队列、环形队列的生产消费模型、单例线程池
  • “基因合作:生命演化中的共生与目的性”
  • 【2024年华为OD机试】 (A卷,200分)- 开放日活动、取出尽量少的球(JavaScriptJava PythonC/C++)
  • 6. 使用springboot做一个音乐播放器软件项目【1.0版项目完结】附带源码~
  • Android SystemUI——最近任务列表启动(十八)
  • FPGA 26,数码管动态显示,解析与实现( 使用 Xilinx Vivado 实现数码管动态显示 )
  • 计算机网络之计算机网络基本概念
  • 【Leetcode 每日一题】45. 跳跃游戏 II
  • Linux 命令之技巧(Tips for Linux Commands)
  • QT 笔记
  • 深入探讨防抖函数中的 this 上下文