当前位置: 首页 > article >正文

LangChain学习笔记2 Prompt 模板

安装 langchain 库

pip install langchain

1、概念:提示和提示工程

在大语言模型(LLMs)时代,通过简单地更改提示中的指令,同一个模型可以执行多种任务。这一特性让 LLMs 在各类应用场景中都显得非常灵活和强大。然而,这种灵活性也依赖于提示的设计质量。糟糕的提示往往会导致糟糕的输出,而精心设计的提示则能够引导模型发挥出其强大的潜力。

**提示(Prompt)**是用户提供给模型的输入文本,通常用于指导模型完成特定任务或生成特定风格的文本。一个好的提示不仅能够清晰地传达任务意图,还能够提供足够的上下文信息,以引导模型生成高质量的输出。提示的形式可以是问题、指令、上下文说明等。良好的提示设计需要考虑到以下几个方面:

  • 指令 :告诉模型该怎么做,如何使用外部信息(如果提供),如何处理查询并构建 Out。
  • 明确性:提示要清晰明确,让模型能够准确理解用户的意图。
  • 外部信息或上下文信息:提供足够的背景信息或限制条件,以帮助模型生成更具相关性和准确性的答案。充当模型的附加知识来源。这些可以手动插入到提示中,通过矢量数据库 (Vector Database) 检索(检索增强)获得,或通过其他方式(API、计算等)引入。
  • 任务引导:根据任务类型选择合适的提示结构,比如命令式、问题式或描述式提示,以引导模型生成期望的输出。

**提示工程学(Prompt Engineering)**是一个跨学科的领域,旨在设计和优化与大语言模型交互的提示词。提示工程学不仅仅是简单地编写问题或请求,而是通过精确的结构化和策略性设计,使得模型能够在特定任务中表现得更为出色。它包括以下几个方面:

  • 提示词设计:如何根据任务的需要,构造合适的提示语句。
  • 调优和迭代:根据模型的反馈,不断调整提示词,以提高模型生成的质量。
  • 上下文管理:有效地为模型提供足够的上下文,确保生成的答案与期望的一致。

2、LangChain Prompt 模板

2.1 PromptTemplate(String PromptTemplates)

这些提示模板用于格式化单个字符串,通常用于更简单的输入。
方法:
from_template 用于快速创建 PromptTemplate 实例。通过从简单的模板字符串生成一个 PromptTemplate 对象,可以在模板中使用占位符来定义动态内容。
invoke 方法用于执行模板的逻辑,并生成最终的结果。这是 PromptTemplate 类中用于将动态变量填充到模板中并直接获取最终结果的方法。
format 方法是 PromptTemplate 类中用于填充模板中变量的主要方法。它接收命名参数并将它们插入到模板中,生成最终的字符串

方法含义输入参数返回值
from_template创建包含占位符的模板对象,用于生成动态内容的 PromptTemplate 实例模板字符串(带占位符)PromptTemplate 对象
invoke使用字典填充模板变量并直接生成结果字符串变量字典字符串(填充后的模板结果)
format用命名参数填充模板变量并返回结果字符串命名参数(键值对)字符串(填充后的模板结果)

例1

from langchain_core.prompts import PromptTemplate

prompt_template = PromptTemplate.from_template("Tell me a joke about {topic}")

result = prompt_template.invoke({"topic": "cats"})
print(result)

会生成字符串

text=‘Tell me a joke about cats’
Process finished with exit code 0

例2

from langchain.prompts import PromptTemplate
# 定义一个模板 字符串
template = """Question1: {question1} 
Question2: {question2}   
Answer:"""
prompt1 = PromptTemplate(template=template, input_variables=['question1', 'question2'])

prompt2 = PromptTemplate.from_template("Question1: {question1} Question2: {question2} Answer:")
# 用户问题
question1 = "Which NFL team won the Super Bowl in the 2010 season?"
question2 = "Who won the Super Bowl in 2010?"
# 格式化模板
result1 = prompt1.format(question1=question1, question2=question2)
result2 = prompt2.format(question1=question1, question2=question2)
print(result1)
print(result2)

会生成字符串

Question1: Which NFL team won the Super Bowl in the 2010 season?
Question2: Who won the Super Bowl in 2010?
Answer:
Question1: Which NFL team won the Super Bowl in the 2010 season? Question2: Who won the Super Bowl in 2010? Answer:
Process finished with exit code 0

2.2 ChatPromptTemplate(ChatPromptTemplates)

这些提示模板用于设置消息列表的格式。这些 “模板” 由模板本身的列表组成。通常用于聊天机器人,会生成聊天消息列表。

方法名含义返回值
.from_template创建系统消息模板,用于定义模型的角色或行为。SystemMessagePromptTemplate/ AIMessagePromptTemplate/ HumanMessagePromptTemplate
.from_messages创建聊天消息模板,将多条消息组合为一个整体提示。ChatPromptTemplate
.format_messages格式化聊天模板中的占位符并生成消息列表。消息字典列表
.invoke填充模板中的占位符并生成最终的文本。字符串
.format_prompt格式化模板,返回一个可以进一步处理的 ChatPromptValue 对象。ChatPromptValue对象
.to_string将 ChatPromptValue 转换为完整的字符串,用于直接作为模型输入。字符串
.to_messages将 ChatPromptValue 转换为消息列表,适用于聊天场景,兼容 ChatGPT 等模型。消息对象列表(list[dict])

2.2.1 通过消息数组创建聊天消息模板

from langchain_core.prompts import ChatPromptTemplate

# 通过消息数组创建聊天消息模板
# 数组每一个元素代表一条消息,包含role和content两部分
# role的值可以是system、user、assistant
# content的值是消息的内容

chat_template = ChatPromptTemplate.from_messages(
    [
        ("system", "你是一个翻译官,名叫{name}"),
        ("user", "你好"),
        ("assistant", "你好,我是{name},你好!"),
        ("user", "请帮我翻译这句话:{input}"),
    ]
)
# 通过模板参数格式化模板内容
messages = chat_template.format_messages(name="小智", input="请帮我写一篇关于AI的文章")
print(messages)

[SystemMessage(content=‘你是一个翻译官,名叫小智’), HumanMessage(content=‘你好’), AIMessage(content=‘你好,我是小智,你好!’), HumanMessage(content=‘请帮我翻译这句话:请帮我写一篇关于AI的文章’)]
Process finished with exit code 0

在 ChatPromptTemplate 中,role 字段的值通常可以是以下几种:
system:表示系统角色。通常用于向模型提供上下文或背景信息,比如设置模型的行为或规则。
user:表示用户角色。通常是用户发出的请求或问题,模型需要根据这些输入生成响应。
assistant:表示助手角色。通常是模型生成的响应,回答用户的问题或根据用户请求执行任务。

2.2.2 通过具体的消息提示模板类的实例数组创建聊天消息模板

from langchain_core.prompts import ChatPromptTemplate, SystemMessagePromptTemplate, HumanMessagePromptTemplate

# 通过具体的消息提示模板类的实例数组创建聊天消息模板
system_message_prompt = SystemMessagePromptTemplate.from_template("你是一个翻译官")
human_message_prompt = HumanMessagePromptTemplate.from_template("请帮我翻译这句话:{input}")
# messages列表
messages = [
    system_message_prompt,
    human_message_prompt
]
chat_prompt = ChatPromptTemplate(messages=messages)
messages = chat_prompt.format_messages(input="请帮我写一篇关于AI的文章")
print(messages)

[SystemMessage(content=‘你是一个翻译官’), HumanMessage(content=‘请帮我翻译这句话:请帮我写一篇关于AI的文章’)]
Process finished with exit code 0

2.2.3 通过SystemMessage、HumanMessagePromptTemplate创建聊天消息模板

from langchain_core.messages import SystemMessage
from langchain_core.prompts import ChatPromptTemplate, HumanMessagePromptTemplate

# 通过SystemMessage、HumanMessagePromptTemplate创建聊天消息模板
chat_template = ChatPromptTemplate.from_messages(
    [
        SystemMessage(
            content="你是一个翻译官"
        ),
        HumanMessagePromptTemplate.from_template("请帮我翻译这句话:{input}")
    ]
)
messages = chat_template.format_messages(input="请帮我写一篇关于AI的文章")
print(messages)

[SystemMessage(content=‘你是一个翻译官’), HumanMessage(content=‘请帮我翻译这句话:请帮我写一篇关于AI的文章’)]
Process finished with exit code 0

2.3 MessagePlaceholder

此提示模板负责在特定位置添加消息列表。通过MessagePlaceholder在指定位置传入一组消息。

from langchain_core.messages import SystemMessage, HumanMessage
from langchain_core.prompts import ChatPromptTemplate, MessagesPlaceholder

prompt_template = ChatPromptTemplate.from_messages([
    SystemMessage(content="You are a helpful assistant."),        #system
    MessagesPlaceholder("msgs")         # palceholder
])
result = prompt_template.invoke({"msgs": [
    HumanMessage(content="hi!"),
    {"role": "user", "content": "你是谁?"}
]})
print(result)

这将生成一个包含三条消息的列表,第一条是系统消息,第二条和第三条是我们传入的 HumanMessage。这对于将消息列表放入特定位置非常有用。

messages=[SystemMessage(content=‘You are a helpful assistant.’), HumanMessage(content=‘你是谁?’), HumanMessage(content=‘hi!’)]
Process finished with exit code 0

在不显式使用 MessagesPlaceholder 类的情况下完成相同操作的另一种方法是:

from langchain_core.messages import SystemMessage, HumanMessage
from langchain_core.prompts import ChatPromptTemplate, MessagesPlaceholder

prompt_template = ChatPromptTemplate(
    [
        ("system", "You are a helpful assistant"),
        ("placeholder", "{msgs}")
    ]
)
result = prompt_template.invoke({"msgs": [
    HumanMessage(content="hi!"),
    {"role": "user", "content": "你是谁?"}
]})
print(result)

2.4 Few-shot prompting

添加示例输入和预期输出的技术模型提示被称为“少样本提示”。

2.4.1 生成示例

少样本提示的第一步也是最重要的一步是提供一个好的示例数据集。
好的示例应该在运行时相关、清晰、信息丰富,并提供模型尚不知道的信息。
单匝与多轮示例:最简单类型的示例仅具有用户输入和预期模型输出。这些是单匝示例。一种更复杂的类型是示例是整个对话,通常模型最初响应不正确,然后用户告诉模型如何纠正其答案。这称为多轮示例。

2.4.2 例子数量

关键的权衡是,更多的示例通常会提高性能,但更大的提示会增加成本和延迟。超过某个阈值,过多的示例可能会开始使模型变得混乱。找到正确数量的示例在很大程度上取决于模型、任务、示例的质量以及成本和延迟限制。有趣的是,模型越好,表现良好所需的示例就越少,并且添加更多示例时,您的回报率就会越快急剧递减。但是,可靠地回答这个问题的最佳/唯一方法是使用不同数量的示例进行一些实验。

2.4.3 选取示例

需要有一种方法根据给定的输入从数据集中选择示例。示例选择器是负责选择示例并将其格式化为提示的类(https://python.langchain.com/docs/concepts/example_selectors/)。
可以随机、通过输入的(语义或基于关键字)相似性、基于一些其他约束,例如令牌大小进行选取。

2.4.4 格式化示例

不同的模型对不同的语法有更好的响应,例如ChatML 、XML、TypeScript 等。

参数名功能使用场景
examples提供一组少样本学习的输入输出示例,帮助模型理解任务模式。在需要引导模型学习任务要求或特定输出格式时。
example_selector在传递给模型的示例中进行选择,以确保示例的数量和内容长度不会超过模型的处理能力动态选择示例,用于大数据量或动态示例场景
example_prompt定义示例的格式确保示例具有一致的结构化形式
prefix提示前缀,添加上下文或任务说明为 Few-Shot 示例提供背景或任务描述
suffix提示后缀,引导输入和目标输出明确模型任务和用户输入
input_variables定义模板中的动态占位符,这些变量需要在运行时提供实际值。当模板需要根据用户输入生成个性化提示时
from langchain.prompts import FewShotPromptTemplate
from langchain.prompts.prompt import PromptTemplate

# 定义示例
examples = [
    {"text": "I love this movie!", "label": "positive"},
    {"text": "This book is boring.", "label": "negative"},
    {"text": "The weather is nice today.", "label": "neutral"}
]

# 创建示例模板
example_template = """
Text: {text}
Label: {label}
"""

# 创建PromptTemplate
example_prompt = PromptTemplate(
    input_variables=["text", "label"],
    template=example_template
)

# 创建FewShotPromptTemplate
few_shot_prompt = FewShotPromptTemplate(
    examples=examples, #一个列表,包含多个示例,每个示例是一个字典,其中包含输入文本和对应的标签。这些示例将用于指导模型进行预测。
    example_prompt=example_prompt, #  一个 PromptTemplate 对象,用于定义示例的格式。它指定了如何将示例中的输入变量(如 text 和 label)填充到模板中
    prefix="Please classify the following texts as positive, negative, or neutral:",  # 一个字符串,用于在所有示例之前添加的前缀。这个前缀通常提供一些上下文或指导信息,帮助模型理解任务。
    suffix="Text: {input}\nLabel:",   #一个字符串,用于在所有示例之后添加的后缀。这个后缀通常包含一个占位符,用于提示模型输入新的文本进行分类。
    input_variables=["input"]
)

# 使用FewShotPromptTemplate进行预测
new_text = "I enjoyed the concert last night."
print(few_shot_prompt.format(input=new_text))

E:\Anaconda3\envs\openAI\python.exe E:\PythonProjects\openAI\few_short_prompt_template.py
Please classify the following texts as positive, negative, or neutral:
Text: I love this movie!
Label: positive
Text: This book is boring.
Label: negative
Text: The weather is nice today.
Label: neutral
Text: I enjoyed the concert last night.
Label:
Process finished with exit code 0


http://www.kler.cn/a/504281.html

相关文章:

  • 深度剖析RabbitMQ:从基础组件到管理页面详解
  • Open FPV VTX开源之默认MAVLink设置
  • 项目概述、开发环境搭建(day01)
  • 计算机网络之---网络安全的基本概念
  • 【Rust】错误处理机制
  • 论文笔记(六十一)Implicit Behavioral Cloning
  • 21_Spring Boot缓存注解介绍
  • 【Go】Go Gin框架初识(一)
  • 从零开始:在服务器上部署大模型并集成到 vscode +Cline使用
  • LLaMa-3 8B + 蒙特卡洛树 约等于 GPT-4
  • 常用的前端4种请求方式
  • 《拉依达的嵌入式\驱动面试宝典》—Linux篇(二)_uboot
  • RocketMQ 知识速览
  • PySide6的资源文件(.qrc 文件)简介以及RCC工具
  • ssm旅游攻略网站设计+jsp
  • 深入理解循环神经网络(RNN):原理、应用与挑战
  • springCloud特色知识记录(基于黑马教程2024年)
  • Android SystemUI——服务启动流程(二)
  • excel按行检索(index+match)
  • 利用Python爬虫获取item_search_shop-获得店铺的所有商品API接口
  • AI时代来了,我们不再需要IDE了
  • C语言进阶-2指针(一)
  • 智能网联汽车技术底盘线控技术
  • python发送get请求与post请求
  • 【前端】自学基础算法 -- 19.树的广度优先搜索
  • 08cms房产系统开源源码与链家房产系统小程序源码两套的安装教程步骤大同小异