当前位置: 首页 > article >正文

论文阅读:Mixture-of-Agents Enhances Large Language Model Capabilities

一、简介

旨在利用多个 LLM 的专业知识增强自然语言理解和生成任务的能力。

提出了一种新方法,通过代理混合 (MoA) 方法利用多个 LLM 在不同专业方面的优势。即一个分层的 MoA 架构,其中每一层都包含多个 LLM 代理。每个代理都将上一层代理的所有输出作为生成其响应的辅助信息。MoAmodels 在 AlpacaEval 2.0、MT-Bench 和 FLASK 上实现了最先进的性能,超过了 GPT-4 Omni。

创新点

(1) 提出了一个 Mixture-of-Agents 框架,旨在利用多个 LLM 的优势,从而提高它们的推理和语言生成能力。

(2) 语言模型协作性的发现:即 LLM 之间的遗传协作性,其中模型在可以访问其他模型的输出时往往会产生更高质量的响应,即使这些输出的质量较低。

二、模型

为了从多个LLM中获得最佳结果,需要准确描述不同的模型在写作过程中的优点。可以将模型分为两个不同的角色

Proposer:生成有用的响应以供其他模型参考使用。作为proposer角色的模型不一定产生高分回答,但是必要条件是提供更多的上下文和观点,最终在被聚合器使用时有助于更好的最终回答。

Aggregator:将其他模型的响应合成到单一、高质量输出的模型。

聚合器获得的模型输出和prompt

三、实验

benchmark:主要评估 AlpacaEval 2.0上的模型,此外,还在 MT-Bench 上进行了评估

model:Qwen1.5-110B-Chat、Qwen1.572B-Chat、WizardLM-8x22B、LLaMA-3-70B-Instruct、Mixtral-8x22B-v0.1、dbrx-instruct。构建了 3 个 MoA 层,并在每个 MoA 层中使用相同的模型集。使用 Qwen1.5-110BChat 作为最后一层的聚合器。

另外开发了一个名为 MoA w/ GPT-4o 的变体,它通过使用 GPT-4o 作为最终 MoA 层中的聚合器,以优先考虑高质量输出。

另一个变体 MoA-Lite 强调成本效益。它使用与 proposer 相同的模型集,但仅包含 2 个 MoA 层,使用 Qwen1.5-72B-Chat 作为聚合器。

所有推理都通过 Together Inference Endpoint 运行。


http://www.kler.cn/a/402110.html

相关文章:

  • CSS遮罩:mask
  • .NET6 WebApi第1讲:VSCode开发.NET项目、区别.NET5框架【两个框架启动流程详解】
  • 内容占位符:Kinetic Loader HTML+CSS 使用CSS制作三角形原理
  • Chrome 浏览器 131 版本新特性
  • 区块链中的wasm合约是什么?
  • 20241116解决在WIN11和ubuntu20.04通过samba共享时出现局域网千兆带宽拉满的情况
  • MATLAB和Python发射光谱
  • 【Linux】深入理解GCC/G++编译流程及库文件管理
  • C++中的std::tuple和std::pair
  • C++---类型转换
  • 5G CPE:为什么活动会场与商铺的网络成为最新选择
  • lua调用C语言函数,在函数中进行类型检查
  • CPU服务器是指什么?
  • 如何解决Ubuntu 20.04中Vim编辑器在按下Ctrl+S时暂停响应的问题
  • 详细分析ipvsadm负载均衡的命令
  • 【ShardingSphere 中间件】ShardingSphere 实现分库分表的详细案例
  • AI工业大模型报告:体系架构、关键技术与典型应用
  • 【c++笔试强训】(第十四篇)
  • 搜维尔科技:Xsens随时随地捕捉,在任何环境下实时录制或捕捉
  • CTFHub每日练习
  • OpenLayers教程12_WebGL自定义着色器:实现高级渲染效果
  • 0基础学java之Day20
  • [数组二分查找] 0209. 长度最小的子数组
  • Java程序基础③Java运算符+逻辑控制+循环结构+输入输出
  • Git配置与使用
  • 2022 年 9 月青少年软编等考 C 语言二级真题解析