当前位置: 首页 > article >正文

机器学习是怎么一步一步由神经网络发展到今天的Transformer架构的?

机器学习和神经网络的发展经历了一系列重要的架构和技术阶段。以下是更全面的总结,涵盖了从早期神经网络到卷积神经网络之前的架构演变:


1. ​早期神经网络:感知机(Perceptron)​

  • 时间:1950年代末至1960年代。
  • 背景
    • 感知机由Frank Rosenblatt提出,是第一个具有学习能力的神经网络模型。
    • 它由单层神经元组成,可以用于简单的二分类任务。
  • 特点
    • 输入层和输出层之间直接连接,没有隐藏层。
    • 使用简单的权重更新规则(如Hebb规则)进行训练。
  • 局限性
    • 只能解决线性可分问题(如AND、OR问题),无法处理非线性问题(如XOR问题)。
    • 缺乏多层的结构,无法学习复杂的特征。

2. ​多层感知机(Multilayer Perceptron, MLP)​

  • 时间:1980年代。
  • 背景
    • 多层感知机在感知机的基础上引入了隐藏层,使其能够解决非线性问题。
    • 1986年,反向传播算法(Backpropagation)的提出使得训练多层神经网络成为可能。
  • 特点
    • 包含输入层、隐藏层和输出层,每一层由多个神经元组成。
    • 使用全连接(Fully Connected)的方式传递信息。
    • 通过反向传播算法计算梯度并更新权重。
  • 局限性
    • 对于高维数据(如图像、文本),全连接网络参数过多,计算复杂度高。
    • 难以捕捉局部特征(如图像中的边缘、纹理)和序列依赖关系(如文本中的上下文)。

3. ​循环神经网络(Recurrent Neural Networks, RNNs)​

  • 时间:1980年代末至1990年代。
  • 背景
    • RNN是为处理序列数据(如文本、时间序列)而设计的。
    • 最早的RNN架构由John Hopfield提出(Hopfield Network)。
  • 特点
    • 通过循环结构(Recurrent Connection)捕捉序列中的时间依赖关系。
    • 适用于自然语言处理、语音识别等任务。
  • 局限性
    • 训练过程中容易出现梯度消失或梯度爆炸问题。
    • 难以捕捉长距离依赖关系。

4. ​改进的RNN架构:LSTM和GRU

  • 时间:1990年代末至2000年代。
  • 背景
    • 为了解决RNN的梯度消失问题,Hochreiter和Schmidhuber提出了长短期记忆网络(Long Short-Term Memory, LSTM)。
    • 后来,门控循环单元(Gated Recurrent Unit, GRU)被提出,作为LSTM的简化版本。
  • 特点
    • 通过引入门控机制(如输入门、遗忘门、输出门),LSTM和GRU能够更好地捕捉长距离依赖关系。
    • 在自然语言处理、语音识别等任务中表现出色。
  • 局限性
    • 仍然难以处理超长序列。
    • 计算效率较低,难以并行化。

5. ​卷积神经网络(Convolutional Neural Networks, CNNs)​

  • 时间:1990年代末至2010年代。
  • 背景
    • CNNs最初由Yann LeCun等人提出,用于手写数字识别(LeNet)。
    • 2012年,AlexNet在ImageNet竞赛中取得突破,开启了深度学习的黄金时代。
  • 特点
    • 使用卷积层(Convolutional Layer)提取局部特征,减少参数数量。
    • 引入池化层(Pooling Layer)降低特征图的空间维度,增强平移不变性。
    • 适合处理图像等高维数据,能够自动学习层次化特征(从边缘到纹理再到物体)。
  • 局限性
    • 对序列数据(如文本、时间序列)处理能力有限。
    • 卷积操作依赖于局部感受野,难以捕捉长距离依赖关系。

6. ​总结:从感知机到卷积神经网络

  • 感知机:单层结构,解决线性可分问题。
  • 多层感知机(MLP)​:引入隐藏层和反向传播,解决非线性问题。
  • 循环神经网络(RNN)​:处理序列数据,捕捉时间依赖关系。
  • 改进的RNN(LSTM/GRU)​:通过门控机制解决梯度消失问题。
  • 卷积神经网络(CNN)​:专注于局部特征提取,适合图像处理。

7. ​后续发展:Transformer

  • 时间:2017年至今。
  • 背景
    • Transformer由Google提出,最初用于机器翻译任务(论文《Attention is All You Need》)。
    • 核心是自注意力机制(Self-Attention),彻底改变了序列建模的方式。
  • 特点
    • 通过自注意力机制捕捉长距离依赖关系。
    • 并行计算,训练效率更高。
    • 通用性强,适用于文本、图像、语音等多种任务。
  • 局限性
    • 自注意力机制的计算复杂度随序列长度平方增长。
    • 需要大量数据和计算资源进行训练。

8. ​未来趋势

  • 模型融合:如CNN与Transformer结合(如Swin Transformer)。
  • 轻量化:设计更高效的模型(如MobileNet、EfficientNet)。
  • 多模态学习:处理多种类型数据(如文本、图像、语音)的联合建模。

总结

从感知机到多层感知机,再到循环神经网络和卷积神经网络,机器学习的架构演变反映了对数据特征、计算效率和任务需求的不断探索。这一过程不仅推动了技术的发展,也深刻影响了人工智能在各个领域的应用。Transformer的出现标志着序列建模的新时代,为未来的模型设计提供了更多可能性。


http://www.kler.cn/a/593675.html

相关文章:

  • 2025 使用docker部署ubuntu24容器并且需要ubuntu24容器能通过ssh登录SSH 登录的Ubuntu24容器
  • Modern C++处理 Hooks 机制
  • Datawhale大语言模型-Transformer以及模型详细配置
  • HttpClient通讯时间过久
  • MiniMax GenAI 可观测性分析:基于阿里云 SelectDB 构建 PB 级别日志系统
  • python采集小红书笔记详情API接口,json数据示例分享
  • 理工超市-多用户注册
  • 【C++模板】
  • Linux--进程创建
  • Android 13深度定制:SystemUI状态栏时间居中显示终极实战指南
  • The Illustrated Stable Diffusion
  • 电机控制常见面试问题(十四)
  • pytorch v1.4.0安装问题
  • 2024年国赛高教杯数学建模E题交通流量管控解题全过程文档及程序
  • 嵌入式系统开发如何选择和备考软考高级
  • webpack等构建工具如何支持移除未使用的代码
  • 基于carla的模仿学习(附数据集CORL2017)更新中........
  • WPF 中的 GridSplitter 详解
  • 不使用负压电源,ADC如何测量正负压?
  • 为什么渲染农场渲染帧而非视频?核心原因 + 举例