当前位置: 首页 > article >正文

深度学习入门1 基于Python的理论与实现

torch.unsqueeze()将一维数据变为二维数据,torch只能处理二维数据

tensor不能反向,variable可以反向。variable.data.numpy()转换为numpy

第3章 神经网络

  • 实现softmax函数时的注意事项:为防止e的指数运算造成溢出

 

矩阵的第 0 维是列方向,第 1 维是行方向

第4章 神经网络的学习

损失函数:

均方误差

交叉熵误差

求所有训练数据的损失函数的总和,以交叉熵误差为例,可以写成

数值微分:利用微小的差分求导数的过程称为数值微分。所谓数值微分就是用数值方法近似求解函数的导数的过程。

梯度法:在梯度法中,函数的取值从当前位置沿着梯度方向前进一定距离,然后在新的地方重新求梯度,再沿着新梯度方向前进,  如此反复,不断地沿梯度方向前进。像这样,通过不断地沿梯度方向前进,  逐渐减小函数值的过程就是梯度法。

学习率决定在一次学习中,应该学习多少,以及在多大程度上更新参数

第5章 误差反向传播法

5.1 计算图

用图形表示计算过程,从左向右计算

实际上,使用计算图最大的原因是,可以通过反向传播高效计算导数。即计算输入变量对最终输出的影响。

5.2 链式法则


http://www.kler.cn/a/611566.html

相关文章:

  • 如何在 Postman 中发送 DELETE 请求?
  • ngx_conf_handler - root html
  • GPT Researcher 的win docker安装攻略
  • unity泛型对象池
  • Elasticsearch:使用 AI SDK 和 Elastic 构建 AI 代理
  • JVM
  • Occlum 是一个内存安全的、支持多进程的 library OS,特别适用于 Intel SGX。
  • 基于VMware虚拟机的Ubuntu22.04系统安装和配置(新手保姆级教程)
  • b站视频字幕提取拓展推荐
  • 腾讯四面面经
  • 架构思路法
  • 批量给 PDF 页面添加超链接
  • Android 自定义变形 SHA1 算法
  • 【含文档+PPT+源码】基于SpringBoot+Vue的贫困地区留守儿童关怀系统
  • React多层级对象改变值--immer
  • [leetcode]map和unodered_map的使用场景
  • 精品推荐-2025全固态电池会议演讲嘉宾(脱敏)PPT合集(30份).zip
  • Golang 容易被忽视的知识点(个人向)
  • 如何在1分钟内编写Cursorrules
  • 智慧路灯机器人是否支持远程监控和管理?