当前位置: 首页 > article >正文

11月推荐阅读的12篇大语言模型相关论文

现在已经是12月了,距离2024年只有一个月了,本文总结了11月的一些比较不错的大语言模型相关论文

System 2 Attention (is something you might need too).

https://arxiv.org/abs/2311.11829

一种称为S2A的新注意力方法被开发出来,解决llm中不相关或有偏见的输出问题。受人类认知过程的启发,S2A过滤掉不相关的上下文,促进LLM推理的真实性和客观性。

ZipLoRA

https://ziplora.github.io/

ZipLoRA是一种有效结合独立训练风格和主题lora的新方法。这种技术克服了现有方法的局限性,并允许可靠的概念驱动的个性化。

LQ-LoRA

https://arxiv.org/abs/2311.12023

LQ-LoRA是一种高效的语言模型LoRA方法,它在考虑内存限制的情况下动态量化矩阵。它优于其他量化方法,并在不影响性能的情况下有效地减少内存使用。在测试中LQ-LoRA以最小的性能损失将语言模型压缩到2.85位。

LLMs cannot find reasoning errors, but can correct them

https://arxiv.org/abs/2311.08516

llm不能发现推理错误,但可以纠正它们。在最近的一项研究中发现,虽然语言模型(llm)中的自我纠正可以提高风格和质量,但纠正逻辑错误的努力往往会导致整体性能下降。作者提出了一种错误发现和输出纠正的两步方法,强调了llm在识别逻辑错误方面面临的挑战,并提出了一种回溯方法,可以更好地利用错误位置信息进行纠正。

LLMs may Dominate Information Access

https://arxiv.org/abs/2310.20501

神经检索器偏向于llm生成的文本。研究人员发现,搜索引擎更倾向于LLM生成的文本,而不是人类编写的文本。这引起了对来源偏差的担忧,需要在LLM时代进一步探索和评估。

Is ChatGPT Good at Search?

https://arxiv.org/abs/2304.09542v2

ChatGPT擅长搜索吗?研究大型语言模型作为重新排序代理。最近的研究发现,在有效的指导下,llm可以比最先进的监督方法在信息检索基准上取得更好的结果。

Large Language Models Understand and Can be Enhanced by Emotional Stimuli

https://arxiv.org/abs/2307.11760

大型语言模型可以通过情绪刺激理解和增强。一项研究发现,向GPT-4人工智能模型提供特定短语等情绪刺激可以提高其性能。“EmotionPrompts”的使用导致了更高质量的输出,在指令诱导过程中提高了8%,在高风险任务中提高了115%。这项研究的下一个目标应该是如何对LLM进行PUA、CPU、KTV、UFO了(笑)

A Survey on Language Models for Code

https://arxiv.org/abs/2311.07989

代码语言模型综述。这个全面的调查探讨了使用语言模型的代码处理的演变和进步。它涵盖了50多个模型、30个评估任务和500个相关工作,重点关注通用语言模型和经过代码训练的专门模型。

GPT-4V in Wonderland: Large Multimodal Models for Zero-Shot Smartphone GUI Navigation.

https://arxiv.org/abs/2311.07562

MM-Navigator是一种基于gpt - 4v的代理,利用大型多模式模型成功地在智能手机上执行零样本的GUI操作。它在理解和执行iOS屏幕指令方面表现得非常准确。

Battle of the Backbones: A Large-Scale Comparison of Pretrained Models across Computer Vision Tasks.

https://arxiv.org/abs/2310.19909

跨视觉任务的预训练模型的大规模比较。这是一篇比较计算机视觉任务预训练模型的论文发现,受VIT启发的卷积神经网络ConvNeXT在不同的任务中表现最好。虽然VIT和自监督学习很流行,但监督预训练的卷积神经网络在大多数情况下仍然具有优越的性能。

TEAL

https://arxiv.org/abs/2311.04589

多模态大型语言模型的标记化和嵌入。TEAL (Tokenize and Embed ALl)是一个简化多模态输入之间的交互建模过程并生成非文本模态的系统。它将来自任何模态的输入作为标记序列,并学习所有模态的联合嵌入空间。这允许多模态大型语言模型更有效地预测多模态标记,支持使用图像和音频等非文本模态的任务。

Levels of AGI: Operationalizing Progress on the Path to AGI

https://arxiv.org/abs/2311.02462

DeepMind推出了一个“AGI水平”框架,将人工智能分为“狭义”和“通用”智能。该框架根据人工智能的学习、推理和应用知识的能力,概述了从新兴到超人的五个级别的人工智能表现。

https://avoid.overfit.cn/post/ca7d20ae68dd4f54a69d7d2d5df51e8d


http://www.kler.cn/news/156282.html

相关文章:

  • 无需服务器,无需魔法,拥有一个微信机器人就是这么简单
  • 数学建模-数据新动能驱动中国经济增长的统计研究-基于数字产业化和产业数字化的经济贡献测度
  • 性能测试常见面试题
  • 网络细节核心笔记
  • Android监听用户的截屏、投屏、录屏行为
  • Google Guava 反射工具使用详解
  • 用纯 CSS 实现网格背景
  • 【Node.js】Node.js环境下载与安装教程(Windows系统)
  • 《系统架构设计师教程(第2版)》第2章-计算机系统基础知识-02-计算软件
  • 34、AD/DA
  • Vue 与 React
  • Python标准库:datetime模块【侯小啾python领航班系列(二十五)】
  • 【python爬虫】设计自己的爬虫 2. 数据保存封装 mongodb,mysql和elasticsearch
  • SQL -高阶3
  • Linux系统centos7防火墙firewall开放IP及端口命令
  • 2023.12.3 hive-sql日期函数小练习
  • k8s中批量处理Pod应用的Job和CronJob控制器、处理守护型pod的DaemonSet控制器介绍
  • 深入理解Go语言GC机制
  • SAP_ABAP_RZ11解决SAP运行超时问题 TIME_OUT / rdisp/scheduler/prio_high/max_runtime
  • 最强Node js 后端框架学习看这一篇文章就够
  • 内衣洗衣机哪个牌子好用?小型洗衣机五大排名
  • 在项目根目录未找到 app.json
  • leetcode:232. 用栈实现队列
  • Mybatis-Plus实现逻辑删除
  • C++ 实现微信退款和对账示例代码
  • ASP.NET 网上选课系统的设计与实现
  • 二叉查找树和红黑树
  • 卖家低价侵权了怎么处理
  • 一款自动帮你生成UI界面和代码的AI神器
  • MySQL练习题,学生成绩查询练习题,附带答案