当前位置: 首页 > article >正文

论文 | LARGE LANGUAGE MODELS ARE HUMAN-LEVEL PROMPT ENGINEERS

作者: Yongchao Zhou, Andrei Ioan Muresanu, Ziwen Han, Keiran Paster, Silviu Pitis, Harris Chan, Jimmy Ba

发表时间: 2023 年 ICLR 会议论文

主要内容

        本文提出了一种名为 APE (Automatic Prompt Engineer) 的方法,旨在自动生成和选择用于指导大型语言模型 (LLM) 的指令。文章的主要贡献可以概括为以下几点:

  • 自然语言程序合成: 将指令生成问题与程序合成问题进行类比,将指令视为“程序”,并使用 LLM 进行优化,从而找到最优的指令。
  • 人类级别的零样本学习性能: 在多个任务中验证了 APE 的有效性,包括 24 个指令诱导任务和 21 个 BIG-Bench 任务。在所有这些任务中,APE 生成的指令在零样本学习方面达到了与人类标注者相当甚至更好的性能。
  • 性能分析: 论文进行了广泛的定性和定量分析,探索了 APE 的各个方面,包括提案分布、评分函数和迭代搜索。结果表明,使用更大的 LLM 和人类对齐的模型可以生成更好的提案分布,并且迭代蒙特卡洛搜索可以略微提高指令质量。
  • 应用案例: 论文展示了 APE 在几个任务中的应用,例如指令诱导、零样本思维链和真实性。APE 生成的指令可以显著提高零样本和少样本学习性能,找到比“让我们一步一步思考”更好的思维链提示,以及指导 LLM 生成更真实和更信息的答案。
  • 成本分析: 论文进行了成本分析,结果表明,尽管大型模型的每 tokens 成本更高,但它们在生成最佳指令方面更具成本效益。这主要是因为大型模型可以生成更简洁的指令,从而减少评分所需的计算资源。

结论

        APE 是一种很有前景的方法,可以自动生成和选择用于指导 LLM 的指令。它具有效率高、性能好、可扩展性强等优点,为控制和管理生成式人工智能提供了新的思路。

个人思考

        这篇论文展示了一个有趣的想法,即利用 LLM 自动生成和选择指令,从而提高模型在下游任务中的性能。这种方法可以显著减少人工编写和验证有效指令所需的时间,并使 LLM 更易于使用。未来,我们可以进一步探索 APE 的应用场景,例如将其用于其他具有自然语言界面的模型,并开发用于优化提示长度的方法,以进一步降低成本。

 


http://www.kler.cn/a/354366.html

相关文章:

  • Objective-C语言的软件工程
  • cache原理
  • 【Vim Masterclass 笔记09】S06L22:Vim 核心操作训练之 —— 文本的搜索、查找与替换操作(第一部分)
  • 左值引用(Lvalue Reference)和右值引用(Rvalue Reference)详解
  • docker-compose安装canal并利用rabbitmq同步多个mysql数据
  • 04、Redis深入数据结构
  • STM32—PWR电源控制
  • 淘宝与天猫商城架构整合实录
  • DevExpress WinForms中文教程:Data Grid - 如何点击获取信息?
  • 李宏毅机器学习2023-HW5-Machine Translation
  • 从源码到平台:使用视频美颜SDK构建高性能直播美颜系统详解
  • Axure重要元件三——中继器修改数据
  • 鸿蒙网络编程系列14-WebSocket客户端通讯示例
  • 排序---java---黑马
  • 从算盘到云计算:计算机发展的壮丽历程
  • C++的内存管理
  • 八、特征降维
  • Lua
  • 20241017软考架构-------软考案例3答案
  • FineReport 预览模式简介
  • 新媒体时代,网站建设完成后的网络推广依然很重要
  • 51单片机的晾衣架控制系统【proteus仿真+程序+报告+原理图+演示视频】
  • spark:数据的关联与合并、缓存和checkpoint
  • C++设计模式 原型模式
  • spring boot热部署
  • “vue : 无法加载文件 D:\nodejs\node_global\vue.ps1,因为在此系统上禁止运行脚本”的解决方法