当前位置: 首页 > article >正文

你知道ChatGPT里面的G、P、T分别代表什么吗?

生成式AI, 在学习归纳数据分布的基础上,创造数据中不存在的新内容。可以生成文本、图片、代码、语音合成、视频和3D模型。

比尔盖茨:ChatGPT是1980年以来最具革命性的科技进步。

身处这个AI变革的时代,唯有躬身入局,脚步跟上。

1、ChatGPT里的GPT,分别代表什么?

GPT,Generative Pre-trained Transformer,生成式预训练变换模型。

什么意思?

Generative,生成式,是指它能自发的生成内容。

Pre-trained,预训练,是不需要你拿到它再训练,它直接给你做好了一个通用的语言模型。

Transformer,变换模型,谷歌提出来的一个很厉害的模型,他可以帮助更好的去处理NLP相关的问题,是非常棒的神经网络结构。
在这里插入图片描述

2、Transformer虽是由谷歌提出的。但是应用最成功的是OpenAI的ChatGPT

因为ChatGPT是站在巨人的肩上走出来的。

ChatGPT是全人类社会的结晶,没有前人的铺垫,ChatGPT不会这么顺利走出来。

后面也会有更多的非常厉害的应用,会基于ChatGPT走出来。

3、Transformer中有一个很重要的概念,注意力机制

什么是注意力机制呢?

就是从你输入的信息中,挑出重要的信息,把注意力集中在这些重要的信息上,忽略不重要的信息。这样就能更好的理解你说的话。

注意力机制能帮助Transformer模型集中注意力在输入信息中最重要的部分。

4、机器学习方式,分为监督学习、无监督学习、强化学习

在这里插入图片描述
监督学习:有标签数据,可以直接反馈,可以预测结果和未来

无监督学习:没有标签和目标,没有反馈,而是它自己去寻找数据中的隐藏结果

强化学习:是一个决策过程,有一系列的奖励机制和惩罚机制,让机器学习如何做到更好

ChatGPT用到的是无监督学习和强化学习。

5、ChatGPT能进行大量的内容生成和创造,其实是靠的猜概率

比如,天气灰蒙蒙的,我的心情很___

经过大量数据训练过的AI,会预测这个空格出现的最高概率的词是「沮丧」。

那么「沮丧」就会被填到这个空格中,所以产生了答案:

天气灰蒙蒙的,我的心情很沮丧

这感觉很不可思议,但事实就是这样。

现阶段所有的NLP(自然语言处理)任务,都不是机器真正理解人类的世界。

他只是在玩文字游戏,进行一次又一次的概率解谜。

6、在这个”猜概率“的文字游戏中,大预言模型(LLM,Large Language Model)演进出了最主流的两个方向:BERT和GPT

BERT是之前最流行的方向,几乎统治了所有NLP领域。

并在自然语言理解类任务中发挥出色(例如文本分类,情感倾向判断等)。

而GPT方向则较为薄弱,最知名的玩家就是OpenAl了。

事实上在GPT3.0发布前,GPT方向一直是弱于BERT的(GPT3.0是ChatGPT背后模型GPT3.5的前身)。

7、BERT和GPT区别是?

BERT,是双向语言模型,联系前后猜中间的字,所以是双向,就像完型填空。

比如:我___20号回家

BERT猜的是「我打算20号回家」,猜的是中间的「打算」。

GPT,是单向语言模型,猜下一个字,所以是单向,像写作文。

比如:我打算20号___

GPT猜的是「我打算20号回家」,猜的是后面「回家」两个字。

8、怎么给GPT提问?

有两种方式:fine-tune和prompt。

fine-tune,调参:需要对模型参数进行更新,来完成生成内容。

fine-tune 专业,门槛高,受众小。但是多样性、准确度高,适合复杂任务。少数玩家的游戏。

prompt,提示词:不需要修改模型和参数,只需要给一些提示和样例,就能完成任务。

prompt更简单,门槛低,受众大。适合处理简单的任务。所有玩家都。

我们在ChatGPT输入框中输入的内容,就是prompt。

9、ChatGPT是生成式AI

在这里插入图片描述
AI从内容产出方式上,分为两种:分析式AI和生成式AI。

分析式AI,主要用于分析,归类。你喂给它多少数据,它就能分析出什么样的内容,它局限于数据本身。

生成式AI, 在学习归纳数据分布的基础上,创造数据中不存在的新内容。可以生成文本、图片、代码、语音合成、视频和3D模型。

ChatGPT是生成式AI,最擅长文本和写代码。

10、最后,从知识获取的角度说,ChatGPT是全新一代的 “知识表示和调用方式”

早期,知识以结构化的方式存储在数据库中。我们通过 SQL获取。

后来,随着互联网的诞生,更多文本、图片、视频等非结构化知识存储在互联网中。我们通过搜索引擎获取。

现在,知识以参数的形式存储在大模型中。我们用自然语言直接调用这些知识。


http://www.kler.cn/a/18035.html

相关文章:

  • 【算法】——二分查找合集
  • 第74期 | GPTSecurity周报
  • 嵌入式硬件杂谈(一)-推挽 开漏 高阻态 上拉电阻
  • 矢量拟合(1)Sanathanan–Koerner算法
  • 金价大跌,特朗普胜选或成导火索
  • 初探鸿蒙:从概念到实践
  • 谷歌浏览器 | Chrome DevTools系统学习篇-概述
  • 用 Bitmap 实现亿级海量数据统计
  • 反调试与反反调试
  • 南卡OE系列再添新成员,造型犀利有型,性能强劲动听!
  • Java代码重构学习笔记-在对象之间搬移特性
  • Yolov8改进---注意力机制:ShuffleAttention、ECA、EffectiveSE、SE
  • Canal实战使用(集群部署)和原理解析
  • 代码随想录算法训练营day32 | 贪心算法:122.买卖股票的最佳时机II ,55. 跳跃游戏,45.跳跃游戏II
  • 计算机基础必读书籍
  • 从零开始学习Linux运维,成为IT领域翘楚(二)
  • vue3 - 超详细头像裁剪并上传到服务器,支持按照自定义比例裁切图片效果组件插件(详细示例源码教程,一键复制运行开箱即用)
  • 网络安全——传输层安全协议(3)
  • 深度学习入门篇1
  • Filter过滤器和Listener监听器
  • 【致敬未来的攻城狮计划】— 连续打卡第二十五天:RA2E1的 DTC传输模式
  • 深入浅出堆—C语言版【数据结构】
  • 为什么需要使用Docker
  • 掌握这些GitHub搜索技巧,你的开发效率将翻倍!
  • 使用MindSDK的at-server组件开发从机模组
  • ScriptableObject上的prefab内容暂用,ScriptableObject详解