当前位置: 首页 > article >正文

深度学习|表示学习|卷积神经网络|NIN 相比普通 CNN|17

如是我闻: Network in Network (NIN) 是 2014 年由 Min Lin 等人 提出的一个改进 CNN 结构的模型。它的核心思想是:用小型的多层感知机(MLP,Multi-Layer Perceptron)替代传统 CNN 中的卷积层,从而提高网络的表达能力。

在这里插入图片描述


NIN 相比普通 CNN 的不同之处

在普通的 CNN 中,每一层的卷积操作可以看作是使用 固定的线性滤波器 提取特征,然后通过非线性激活函数(如 ReLU)增加表达能力。然而,这种方法的局限性在于每个卷积核的表达能力较弱,因为它本质上是一个线性变换。

NIN 提出的核心改进点是:

  1. 使用 MLP 代替传统的卷积核

    • 传统 CNN:用一个形如 3 × 3 3 \times 3 3×3 5 × 5 5 \times 5 5×5 的卷积核进行特征提取,相当于一个简单的线性变换。
    • NIN:用一个 小型的神经网络(MLP) 代替卷积核,使得每个“卷积核”不仅仅是一个线性变换,而是一个具有 多层非线性结构 的函数,提高了特征提取能力。
  2. 使用 1x1 卷积实现 MLP

    • 具体来说,NIN 采用 多个 1×1 卷积层 作为 MLP,每个 1×1 卷积层可以看作一个神经元,这样可以在通道维度上学习更复杂的特征表示,而不仅仅是空间维度上的卷积操作。
  3. 全局平均池化 (Global Average Pooling, GAP)

    • 传统 CNN 在最后通常使用全连接层进行分类,而 NIN 用 GAP(Global Average Pooling) 取代全连接层,使得整个网络更轻量化,同时减少过拟合的风险。

总结对比

比较维度普通 CNNNetwork in Network (NIN)
卷积操作线性卷积核 + 非线性激活用 MLP 代替普通卷积
1×1 卷积很少使用作为 MLP 主要成分
表达能力受限于单层卷积核的线性变换通过 MLP 提高特征表达能力
全连接层需要额外的全连接层使用 GAP 取代全连接层
参数量可能较大通过 GAP 减少参数

NIN 的影响

NIN 通过引入 1×1 卷积 + MLP,极大地增强了 CNN 的特征提取能力,并且启发了后续许多深度学习模型的设计,比如:

  • GoogLeNet (Inception) 大量使用 1×1 卷积进行特征变换
  • ResNet 也借鉴了 1×1 卷积用于降维和非线性变换

以上


http://www.kler.cn/a/534606.html

相关文章:

  • 设计模式——策略模式
  • 手机上运行AI大模型(Deepseek等)
  • kamailio-osp模块
  • MySQL UNION 操作详解
  • DeepSeek模型实战:从理论到应用的深度探索
  • 【HarmonyOS之旅】基于ArkTS开发(二) -> UI开发三
  • mysql慢查询工具explain
  • MySQL 的 binlog 作用
  • 11.10 LangChain对话记忆管理实战:从入门到生产级ConversationBufferMemory应用指南
  • 查看设备uuid
  • 【EdgeAI实战】(2)STM32 AI 扩展包的安装与使用
  • 【技术追踪】DiffMIC:用于医学图像分类的双引导扩散网络(MICCAI-2024)
  • 了解linux-5.4.31/drivers/gpio/gpiolib-devres.c中的devm_gpiod_get_optional()函数
  • MD5 简介 以及 C# 和 js 实现【加密知多少系列_1】
  • 新版AndroidStudio 修改 jdk版本
  • 8. k8s二进制集群之Kubectl部署
  • http状态码:504 Gateway Timeout(网关超时)的原有以及排查问题的思路
  • 【Uniapp-Vue3】创建DB schema数据表结构
  • VMware下Linux和macOS遇到的一些问题总结
  • android 自定义通话录音
  • 【PostgreSQL内核学习 —— (WindowAgg(二))】
  • Docker 国内最新可用镜像源20250205
  • Solidity08 Solidity 函数
  • 机器学习8-卷积和卷积核1
  • 【AI 语音】实时语音交互优化全解析:从 RTC 技术到双讲处理
  • Java常见的技术场景面试题