MATLAB 2024b深度学习新特性全面解析与DeepSeek大模型集成开发
随着人工智能技术向多学科交叉融合与工程实践领域纵深发展,MATLAB 2024b深度学习工具箱通过架构创新与功能强化,为科研创新和行业应用提供了全栈式解决方案。本培训基于该版本工具链的三大革新方向展开:一是构建覆盖经典模型与前沿架构的体系化课程,涵盖从CNN、LSTM等基础网络到Transformer、GNN、PINN等新兴技术的完整知识图谱;二是强化工业级应用场景落地方案,通过YOLO目标检测模型、U-Net语义分割模型、TCN时间序列模型等实战案例,贯通数据清洗、模型设计、训练优化到模型压缩的全生命周期管理;三是首创多模态协同开发模式,深度整合Model Hub预训练生态库、实验管理器超参优化模块,并突破性地实现与TensorFlow/PyTorch框架互操作、大语言模型本地化部署等关键技术。
本内容核心技术突破体现在四个方面:首先,物理信息神经网络(PINN)模块实现微分方程约束与深度学习框架的耦合建模,为科学计算开辟新范式;其次,深度网络设计器新增模型剪枝与量化工具链,结合FPGA部署方案大幅提升边缘计算效率;再次,Transformer技术专题纵向解析BERT/GPT/ViT架构演变,横向打通NLP与CV领域迁移应用;最后,大语言模型本地部署接口支持Ollama与DeepSeek的无缝集成,构建智能对话系统开发闭环。
第一章 MATLAB 2024b深度学习工具箱新特性简介
1、MATLAB Deep Learning Toolbox概览
2、实时脚本(Live Script)与交互控件(Control)功能介绍与演示
3、批量大数据导入及Datastore类函数功能介绍与演示
4、数据清洗(Data Cleaning)功能介绍与演示
5、深度网络设计器(Deep Network Designer)功能介绍与演示
6、实验管理器(Experiment Manager)功能介绍与演示
7、MATLAB Deep Learning Model Hub简介
8、MATLAB与TensorFlow、PyTorch等深度学习框架协同工作功能介绍与演示
9、MATLAB Deep Learning Toolbox Examples简介
第二章 卷积神经网络(Convolutional Neural Network, CNN)
1、深度学习与传统机器学习的区别与联系
2、卷积神经网络的基本原理(什么是卷积核?CNN的典型拓扑结构是怎样的?CNN的权值共享机制是什么?CNN提取的特征是怎样的?)
3、LeNet、AlexNet、Vgg-16/19、GoogLeNet、ResNet等经典深度神经网络的区别与联系
4、预训练模型(Alexnet、Vgg-16/19、GoogLeNet、ResNet等)的下载与安装
5、优化算法(梯度下降、随机梯度下降、小批量随机梯度下降、动量法、Adam等)
6、调参技巧(参数初始化、数据预处理、数据扩增、批量归一化、超参数优化、网络正则化等)
7、案例讲解:(1)CNN预训练模型实现物体识别;(2)利用卷积神经网络抽取抽象特征;(3)自定义卷积神经网络拓扑结构;(4)1D CNN模型解决回归拟合预测问题
8、实操练习
第三章 模型可解释性与特征可视化Model Explanation and Feature Visualization
1、什么是模型可解释性?为什么要对CNN模型进行解释?
2、常用的可视化方法有哪些(特征图可视化、卷积核可视化、类别激活可视化等)?
3、CAM(Class Activation Mapping)、GRAD-CAM、LIME(Local Interpretable Model-agnostic Explanation)、t-SNE等方法原理讲解
4、案例讲解:基于CAM/Grad-CAM的卷积神经网络模型的特征可视化
5、实操练习
第四章 迁移学习算法(Transfer Learning)
1、迁移学习算法的基本原理(为什么需要迁移学习?迁移学习的基本思想是什么?)
2、基于深度神经网络模型的迁移学习算法
3、案例讲解:基于Alexnet预训练模型的模型迁移
4、实操练习
第五章 循环神经网络与长短时记忆神经网络(RNN & LSTM)
1、循环神经网络(RNN)与长短时记忆神经网络(LSTM)的基本原理
2、RNN与LSTM的区别与联系
3、案例讲解:(1)时间序列预测;(2)序列-序列分类
4、实操练习
第六章 时间卷积网络(Temporal Convolutional Network, TCN)
1、时间卷积网络(TCN)的基本原理
2、TCN与1D CNN、LSTM的区别与联系
3、案例讲解:(1)时间序列预测:新冠肺炎疫情预测;(2)序列-序列分类:人体动作识别
4、实操练习
第七章 生成式对抗网络(Generative Adversarial Network)
1、生成式对抗网络GAN(什么是对抗生成网络?为什么需要对抗生成网络?对抗生成网络可以做什么?)
2、案例讲解:向日葵花图像的自动生成
3、实操练习
第八章 自编码器(AutoEncoder)
1、自编码器的组成及基本工作原理
2、经典自编码器(栈式自编码器、稀疏自编码器、去噪自编码器、卷积自编码器、掩码自编码器等)
3、案例讲解:基于自编码器的图像分类
4、实操练习
第九章 目标检测YOLO模型
1、什么是目标检测?目标检测与目标识别的区别与联系?YOLO模型的工作原理(从传统目标检测到基于深度学习的目标检测、从“两步法”的R-CNN到“一步法”的YOLO、YOLO模型的演化历史)
2、案例讲解:(1)标注工具Image Labeler功能简介与演示;(2)使用预训练模型实现图像、视频等实时目标检测;(3)训练自己的数据集:新冠疫情佩戴口罩识别
3、实操练习
第十章 图像语义分割U-Net模型
1、语义分割(Semantic Segmentation)简介
2、U-Net模型的基本原理
3、案例讲解:基于U-Net的多光谱图像语义分割
第十一章 注意力机制(Attention)
1、注意力机制的背景和动机(为什么需要注意力机制?注意力机制的起源和发展里程碑)。
2、注意力机制的基本原理(什么是注意力机制?注意力机制的数学表达与基本公式、用机器翻译任务带你了解Attention机制、如何计算注意力权重?)
3、注意力机制的主要类型:键值对注意力机制(Key-Value Attention)、自注意力(Self-Attention)与多头注意力(Multi-Head Attention)、Soft Attention 与 Hard Attention、全局(Global)与局部(Local)注意力
4、注意力机制的优化与变体:稀疏注意力(Sparse Attention)、自适应注意力(Adaptive Attention)、动态注意力机制(Dynamic Attention)、跨模态注意力机制(Cross-Modal Attention)
5、案例演示:(1)基于注意力机制的Seq-to-Seq翻译;(2)基于注意力机制的图像描述
6、实操练习
第十二章 Transformer模型及其在NLP和CV领域的应用
1、Transformer模型的提出背景(从RNN、LSTM到注意力机制的演进、Transformer模型的诞生背景)
2、Transformer模型的进化之路(RCTM→RNN Encoder-Decoder→Bahdanau Attention→Luong Attention→Self Attention)
3、Transformer模型拓扑结构(编码器、解码器、多头自注意力机制、前馈神经网络、层归一化和残差连接等)
4、Transformer模型工作原理(输入数据的Embedding、位置编码、层规范化、带掩码的自注意力层、编码器到解码器的多头注意力层、编码器的完整工作流程、解码器的完整工作流程、Transformer模型的损失函数)
5、BERT模型的工作原理(输入表示、多层Transformer编码器、掩码语言模型MLM、下一句预测NSP)
6、GPT系列模型(GPT-1 / GPT-2 / GPT-3 / GPT-3.5 / GPT-4)的工作原理(单向语言模型、预训练、自回归生成、上下文学习、RLHF人类反馈强化学习、多模态架构)
7、ViT模型(提出的背景、基本架构、与传统CNN的比较、输入图像的分块处理、位置编码、Transformer编码器、分类头、ViT模型的训练与优化
8、案例演示:(1)基于BERT模型的文本分类;(2)基于ViT模型的图像分类
9、实操练习
第十三章 物理信息神经网络(PINN)
1、PINN工作原理:物理定律与方程的数学表达、如何将物理定律嵌入到神经网络模型中?PINN的架构(输入层、隐含层、输出层的设计)、物理约束的形式化(如何将边界条件等物理知识融入网络?)损失函数的设计(数据驱动与物理驱动的损失项)
2、案例演示:基于PINN的微分方程求解
3、实操练习
第十四章 图神经网络(GNN)
1、图神经网络的背景和基础知识(什么是图神经网络?图神经网络的发展历程?为什么需要图神经网络?)
2、图的基本概念和表示(图的基本组成:节点、边、属性;图的表示方法:邻接矩阵;图的类型:无向图、有向图、加权图)。
3、图神经网络的工作原理(节点嵌入和特征传播、聚合邻居信息的方法、图神经网络的层次结构)。
4、图卷积网络(GCN)的工作原理。
5、图神经网络的变种和扩展:图注意力网络(GAT)、图同构网络(GIN)、图自编码器、图生成网络。
6、案例演示:(1)基于图卷积神经网络的节点分类;(2)基于图神经网络的时间序列异常点检测
7、实操练习
第十五章 深度学习模型压缩(Compression)
1、深度学习模型压缩的常用方法(裁剪、量化、Dropout、正则化等)
2、Deep Learning Toolbox Model Compression Library的安装与模型压缩
3、案例演示:基于Deep Network Designer的模型压缩
4、实操练习
第十六章 MATLAB接入ChatGPT/DeepSeek等大语言模型
1、Ollama下载与安装
2、Large Language Models (LLMs) with MATLAB下载与安装
3、ChatGPT API Key配置与MATLAB接入ChatGPT对话
4、本地部署DeepSeek大语言模型与MATLAB接入DeepSeek对话
5、案例讲解与实操练习