【总结整理】 神经网络与深度学习 邱锡鹏 课后习题答案 扩展阅读链接
本文主要针对神经网络神经网络邱锡鹏 2~8 章的课后习题进行理解的过程中,搜索到的讲的会比较透彻的链接整理。适合有一定基础但是想了解更细的人阅读。
主要参考书籍
首先是本书pdf可在神经网络与深度学习获取;
主要参考的课后习题答案为nndl/solutions: 《神经网络与深度学习》课后习题答案-分享讨论;
知乎也有一篇关于课后习题的解读:《神经网络与深度学习-邱锡鹏》习题解答 。
其中李航老师的统计学习方法(李航).pdf 多次出现,有空可阅读以便理解。
第二章
2-2 经验风险函数机器学习:损失函数、风险函数、经验风险、期望风险、结构风险_经验风险函数-CSDN博客
2-6 (2) 最大后验估计MAE
极大似然估计与最大后验概率估计 - 知乎;MLE 与 MAP 简介 | 吴良超的学习笔记;
2-7 数据无穷多时,MAE趋近于MLE
MLE和MAP_02_哔哩哔哩_bilibili
2-11 一元二元三元 N-Gram词袋模型
NLP浅层次模型之N-Gram词袋法_n-grams袋模型-CSDN博客
2-12 精准率、召回率、F1
一文看懂机器学习指标:准确率、精准率、召回率、F1、ROC曲线、AUC曲线 | by easyAI-人工智能知识库 | Medium
宏平均、微平均
关于宏平均(Macro-averaging)和微平均(Micro-averaging)_宏平均和微平均-CSDN博客
第三章
3-1 超平面和权重向量
为什么权重向量与神经网络中的决策平面正交?(以及对超平面的理解) - 知乎
3-4 线性可分和线性不可分
理解线性可分和线性不可分与机器学习什么叫线性模型-CSDN博客
3-5 平方损失函数和分类问题
为什么平方损失函数不适用分类问题? - 知乎
3-7 平均感知机训练算法计算方式和书中公式等价
blog.csdn.net/weixin_42660711/article/details/123702260
感知机和支持向量机异同
感知机与SVM对比
3-11 KKT条件和软间隔支持向量机
支持向量机 (二): 软间隔 svm 与 核函数 - massquantity - 博客园
Karush-Kuhn-Tucker (KKT)条件 - 知乎
第四章
4-1 零均值化为什么更好
什么是零均值?什么是零均值化?-CSDN博客
4-2 前馈神经网络和神经元等
深度学习——前馈神经网络 - 图神经网络 - 博客园
如何确定神经网络的层数和隐藏层神经元数量 - 龙之天族 - 博客园
4-3 死亡ReLU问题
dead ReLU的发生原因和复活问题-CSDN博客
4-4 Swish激活函数
Google提出的新型激活函数:Swish
4-7 为什么b不正则
为什么一般不对偏置b进行正则化?_为什么正则化不处理偏置-CSDN博客
4-7 梯度消失等问题
详解深度学习中的梯度消失、爆炸原因及其解决方法 - 知乎
第五章
5-1 微分/差分
深度学习传统CV算法——二阶微分边缘算子_qq5b42bed9cc7e9的技术博客_51CTO博客
5-3 1×1卷积核的作用
一文读懂卷积神经网络中的1x1卷积核 - 知乎
5-4 卷积神经网络的时空间复杂度
卷积神经网络的时间、空间复杂度以及数据流的变化_卷积时间复杂度?-CSDN博客
5-5 卷积操作到仿射变换
卷积操作的线性性质 - 宁静是一种习惯 - 博客园
5-7 空洞卷积
两种特殊卷积:转置卷积和空洞卷积_空洞卷积实例-CSDN博客
第六章
6-1 延时神经网络、卷积神经网络、循环神经网络
CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)概念区分理解_深度神经,卷积神经,循环神经-CSDN博客