当前位置: 首页 > article >正文

Datawhale X 李宏毅苹果书 AI夏令营|机器学习基础之案例学习

机器学习(Machine Learning, ML):机器具有学习的能力,即让机器具备找一个函数的能力

函数不同,机器学习的类别不同:

回归(regression):找到的函数的输出是一个数值或标量(scalar)。例如:机器学习预测某一个时间段内的PM2.5,机器要找到一个函数f,输入是跟PM2.5有关的的指数,输出是明天中午的P M2.5的值。

分类(classification):让机器做选择题,先准备一些选项(类别class),机器要找到的的函数会从设定好的选项里边选择一个当作输出。例如:在邮箱账户里设置垃圾邮件检测规则,这套规则就可以看作输出邮件是否为垃圾邮件的函数

除了回归和分类还有结构化学习(structured learning),机器不仅要做选择题或者输出一个数字,还要产生一个有结构的结果,比如一张图或者一篇文章等。让机器产生有结构的结果的学习过程称为结构化学习。

机器学习的3个过程:

Step1: 写出带有未知参数(parameter)的函数,这个函数称为模型(model)。模型在机器学习中就是一个带有未知参数的函数,特征(feature)是这个函数里边已知的信息,w为权重,b为偏置。

Step2: 定义损失(loss),损失也是一个函数,记为L(b, w) 用于评判模型的参数是否合适。

真实值称为标签(Label)

估测值跟真实值之间的差距

计算二者差的绝对值称为平均绝对误差(Mean Absolute Error, MAE) e=|ŷ-y|

计算二者差的平方称为均方误差(Mean Squared Error, MSE)e=(ŷ-y)2

其中的y和ŷ都是概率分布,这个时候可能会选择计算交叉熵(cross entropy)

Step3: 解一个优化问题,即找到最好的一对(w, b),使损失L的值最小,用(w*, b*),代表最好的一对(w, b)

线性回归:

  • 损失函数:均方误差(Mean Squared Error,MSE)
  • L关于w的方程:

  • L关于w的偏导数:

逻辑回归:

  • 损失函数:交叉熵损失(Cross-Entropy Loss)
  • L关于w的方程:

  • L关于w的偏导数


http://www.kler.cn/news/289230.html

相关文章:

  • Vue -- 总结 02
  • adb大全指令(持续更新)
  • 动态住宅IP代理的搭建指南:实现高效网络访问
  • 数据访问:JPA关联MyBatis
  • Elasticsearch的Restful风格API
  • 达梦常用SQL及脚本工具
  • 哈希 详解
  • echart自适应tree树图,结构组织图模板
  • 国赛数模C题模型(五)
  • 将泛型和函数式编程结合,竟然会让代码这么优雅!
  • (一)、软硬件全开源智能手表,与手机互联,标配多表盘,功能丰富(ZSWatch-Zephyr)
  • 大数据系列之:OutOfMemoryError: unable to create new native thread
  • 简单好用的SD卡克隆软件:轻松克隆SD卡
  • 路径优化 minimum-snap(对A*的全局路径进行优化)
  • 使用Python写一个适用于Dify和FastGPT的JsonPath插件
  • VideoCrafter1:Open Diffusion models for high-quality video generation
  • 【Android】最好用的网络库:Retrofit
  • 深度学习中的PyTorch Tensor详解
  • IntelliJ IDEA 自定义字体大小
  • Milvus向量数据库-数据备份与恢复
  • Kotlin 流 Flow
  • pikachu文件包含漏洞靶场
  • JavaScript-document.write和innerHTML的区别
  • Unity(2022.3.41LTS) - UI详细介绍-Scroll View(滚动视图)
  • Flink 1.14.* Flink窗口创建和窗口计算源码
  • 报告 | 以消费者为中心,消费品零售行业数字化建设持续深化
  • 详解React setState调用原理和批量更新的过程
  • Python基础笔记
  • 代码随想录算法训练营第六十二天 | 图论part11
  • 51单片机-串口通信(单片机和PC互发数据)