当前位置: 首页 > article >正文

【初/高中生讲机器学习】0. 本专栏 “食用” 指南——写在一周年之际⭐

创建时间:2025-01-27
首发时间:2025-01-29
最后编辑时间:2025-01-29
作者:Geeker_LStar

你好呀~这里是 Geeker_LStar 的人工智能学习专栏,很高兴遇见你~
我是 Geeker_LStar,一名高一学生,热爱计算机和数学,我们一起加油~!
⭐(●’◡’●) ⭐
那就让我们开始吧!

好耶!!(撒花)

这个专栏一岁啦!!从初三寒假写到高一寒假,它见证了我一年的成长。

一周年之际,也算是完结之际,这篇文章是对整个专栏的介绍~!

关于这个专栏的 2W1H

  • What:这个专栏是什么?
  • Why:为什么我会写这个专栏?
  • How:如何使用这个专栏?
  • Passion Is All You Need.

What:这个专栏是什么?

正如标题中【】框起来的部分,这是一个由高中生写的机器学习专栏。
这个专栏从 2024.01.29 开始更新,这篇介绍写于 2025.01.29,恰好是一周年,也恰好是专栏(第一次)完结的时间。

这个专栏的宗旨是 “用最具象的方式讲最抽象的东西”。(此处的 “抽象” 有两层意思啊不是(

专栏中每一篇文章我都写得很认真,每一篇的思路链条都经过了一次次地修改和完善。除了对算法和公式的讲解,我也会加入自己在学习这个算法的时候遇到的问题,以及我更多的思考。
我努力把每个算法背后的 motivation 展现出来,在我看来,这是一个算法最核心的东西。理解了 motivation,数学推导也就没有那么难了。

这是专栏中所有文章的合集:
【机器学习】全系列合集,戳这里!(更新中)

\begin 注意:
序号 3-15 的文章是初三(主要是初三寒假)的时候写的,可能会出现一些漏洞(理解 & 符号使用 & 公式,等等很多方面),如果觉得有问题欢迎找我!!! 这部分的文章会在后面的一年中进行更多的打磨和修改!
序号 15 往后的文章主要是高一上学期写的,相对来讲会更专业一些~后面也会进行一些打磨!
\end 注意
(噗哈哈哈这个 \begin 和 \end 不是渲染的问题,我就是这么打的))

Why:为什么我会写这个专栏?

——因为我觉得现有的机器学习资料对初学者太不友好了😭。
“默认” 的数学基础、堆在一起还缺乏解释的公式,无处不在的 “显然” 和 “省略”…

这真的会让人爆炸的🤯,我初学机器学习的那两个月几乎每天都处在这种 “爆炸” 当中。
所以我想写一点对初学者,对很多和我一样的初学者友好的东西,说得再直白点就是让人能看懂的东西。包括但不限于轻松的语言风格,丰富具体的例子,包含详细解释的数学推导,等等。

这个想法在当时可以说是一种冲动,这种冲动大约持续了一个月,随后则成为了一种习惯——在后来的十一个月当中。

That’s all.

接着,我们来说点执行层面的事情(???bruh 这个词为什么这么熟悉)——这个专栏应该怎么看?以什么样的顺序看?每一篇文章有没有具体需要注意的点?

How:如何使用这个专栏?

好呀~那我们就来聊聊具体应该如何使用这个专栏吧!

首先,在深入学习每一个算法之前,你需要对机器学习的一些基础知识有一个大致的了解。

嗯…这个专栏的第一、二篇文章一直没有写,其实它们就是给 “机器学习概述” 留的位置啦!等我写好了会放在这里的!
不过其实,虽然现在还没写好,但是写过的一些内容也涵盖了机器学习的基础知识,如下啦~

用于参数估计(模型优化)的两大方法:
12. 似然函数和极大似然估计:原理、应用与代码实现
15. EM 算法一万字详解!一起来学!

一些可以评估模型性能的指标:
6. 分类算法中常用的模型评价指标有哪些?here!
11. 回归算法中常用的模型评价指标有哪些?here!

确定模型超参数的方法:
7. 交叉验证是什么?有哪些?怎么实现?来看!

同时,还可以简单了解一下熵的概念,有助于更好地理解后面具体算法中的内容:
22. 信息论基础:信息熵、交叉熵、相对熵

okay!把这些看完之后,你对机器学习应该已经有了一个不错的了解!接下来我们可以进入具体算法的研究了…

先从监督学习开始吧!

不妨让线性回归成为第一个算法,这估计是最简单的一个算法了:
10. 新手向,线性回归算法原理一篇吃透!

接着我们可以学习一下 KNN,它是最简单的分类算法:
8. KNN 算法原理 & 实践一篇讲清!
里面 KD-tree 相关的部分如果看不懂可以先跳过。

接下来可以看一看朴素贝叶斯,核心公式只有一个,相对来讲是比较简单的:
5. 从概率到朴素贝叶斯算法,一篇带你看明白!

嗷,后面的部分会变得稍微难一些。

逻辑回归是用得很广的分类模型,公式比前面几个稍多一些,但难度不大:
14. 手撕公式,一篇带你理解逻辑回归!

从逻辑回归出发,我们可以拓展到更为一般化的最大熵原理:
23. 最大熵模型详解+推导来啦!解决 why sigmoid!

然后我们来看一个非常经典的分类模型,也是我学的第一个模型——支持向量机:
3. 支持向量机(SVM)一万字详解!超全超详细超易懂!
注意,支持向量机对偶问题那部分很难,可以 jump jump jump()

ok 呀,接下来我们进入树模型的部分,树模型是机器学习中很重要的组成部分。
first 是基础的决策树,比较直观,公式不难:
13. 决策树算法一万字详解!一篇带你看懂!

决策树之后就是绕不开的集成学习。这里可以先了解一下偏差—方差分解,理解集成学习出现的原因:
24. 从偏差—方差分解到集成学习!包全的!
其中的很多数学细节可以跳过。

然后可以分别学习 Bagging 和 Boosting。建议先学 Bagging,因为数学部分比较简单:
28. 集成学习之 Bagging & 随机森林!

然后是 Boosting:
25. AdaBoost 算法详解+推导来啦!
26. 梯度提升树 GBDT 超详细讲解!

oh,接下来就是更为进阶的主题了——概率图模型。
概率图模型可以分为贝叶斯网络和马尔可夫网络两个部分去学,建议先从贝叶斯网络开始:
27. 贝叶斯网络详解!超!系!统!
这个里面也写了概率图模型的介绍。

贝叶斯网络的一大实例是经典的标注算法隐马尔可夫模型:
20. 隐马尔可夫模型好难?看过来!(上篇)
21. 隐马尔可夫模型好难?看过来!(下篇)

学完贝叶斯网络,再来看看它的另一半——马尔可夫网络:
29. 马尔可夫随机场 2w 字详解!超!系!统!

条件随机场是马尔可夫网络的实例,也是经典的标注算法之一:
30. 理解条件随机场最清晰的思路!(上篇)
31. 理解条件随机场最清晰的思路!(下篇)

好耶!!学完这些,基本的监督学习算法你就已经全都 get 到啦!!!
接下来我们进入无监督学习吧!

无监督学习的算法相对少一些。
我们可以先了解一下几种经典的聚类算法,聚类比较简单,不涉及太多的数学:
19. 各种经典聚类算法,一篇带你过完!(上)

接下来我们来学习一个经典的降维算法——主成分分析。
降维算法的数学普遍比较复杂,如果觉得太难,可以适当跳过一些数学推导:
16. 线代小白也能看懂的矩阵奇异值分解!
17. 讲人话的主成分分析,它来了!(上篇)
18. 讲人话的主成分分析,它来了!(下篇)

无监督学习的基本算法其实也就这两个啦~

恭喜你!!!如果你看完了以上所有文章,你已经成功入门了机器学习!!

(再次撒花!)

嘿嘿~ 那对这个专栏的介绍就到这里啦~ 欢迎帮我宣传呀嘿嘿!!祝学习顺利!!❤~

Passion Is All You Need.

最后,这句话送给你,也送给我。

这篇文章介绍了整个专栏⭐。
欢迎三连!!一起加油!🎇
——Geeker_LStar


http://www.kler.cn/a/524358.html

相关文章:

  • DeepSeek大模型技术解析:从架构到应用的全面探索
  • C++并发编程指南05
  • 【JavaEE】_MVC架构与三层架构
  • Vscode的AI插件 —— Cline
  • MySQL通过binlog恢复数据
  • 【leetcode】T1599
  • sem_init的概念和使用案例-简洁版
  • 信息学奥赛一本通 1342:【例4-1】最短路径问题
  • 本地项目上传到码云
  • 代码随想录算法训练营第三十八天-动态规划-完全背包-139.单词拆分
  • 【go语言】指针
  • 2025 = 1^3 + 2^3 + 3^3 + 4^3 + 5^3 + 6^3 + 7^3 + 8^3 + 9^3
  • mac安装dockerdesktop优化
  • ECMAScript--promise的使用
  • AutoDL 云服务器:普通 用户 miniconda 配置
  • 二叉树介绍
  • Java多线程与高并发专题——JMM
  • 实验作业管理系统的设计与实现
  • Leetcode刷题-不定长滑动窗口
  • Vue 组件开发:构建高效可复用的前端界面要素
  • Spark Streaming的背压机制的原理与实现代码及分析
  • 力扣面试150 快乐数 循环链表找环 链表抽象 哈希
  • Java中实现ECDSA算法介绍、应用场景和示例代码
  • 机器人介绍
  • 《HelloGitHub》第 106 期
  • 扣子平台音频功能:让声音也能“智能”起来。扣子免费系列教程(14)