【初/高中生讲机器学习】0. 本专栏 “食用” 指南——写在一周年之际⭐
创建时间:2025-01-27
首发时间:2025-01-29
最后编辑时间:2025-01-29
作者:Geeker_LStar
你好呀~这里是 Geeker_LStar 的人工智能学习专栏,很高兴遇见你~
我是 Geeker_LStar,一名高一学生,热爱计算机和数学,我们一起加油~!
⭐(●’◡’●) ⭐
那就让我们开始吧!
好耶!!(撒花)
这个专栏一岁啦!!从初三寒假写到高一寒假,它见证了我一年的成长。
一周年之际,也算是完结之际,这篇文章是对整个专栏的介绍~!
关于这个专栏的 2W1H
- What:这个专栏是什么?
- Why:为什么我会写这个专栏?
- How:如何使用这个专栏?
- Passion Is All You Need.
What:这个专栏是什么?
正如标题中【】框起来的部分,这是一个由高中生写的机器学习专栏。
这个专栏从 2024.01.29 开始更新,这篇介绍写于 2025.01.29,恰好是一周年,也恰好是专栏(第一次)完结的时间。
这个专栏的宗旨是 “用最具象的方式讲最抽象的东西”。(此处的 “抽象” 有两层意思啊不是(
专栏中每一篇文章我都写得很认真,每一篇的思路链条都经过了一次次地修改和完善。除了对算法和公式的讲解,我也会加入自己在学习这个算法的时候遇到的问题,以及我更多的思考。
我努力把每个算法背后的 motivation 展现出来,在我看来,这是一个算法最核心的东西。理解了 motivation,数学推导也就没有那么难了。
这是专栏中所有文章的合集:
【机器学习】全系列合集,戳这里!(更新中)
\begin 注意:
序号 3-15 的文章是初三(主要是初三寒假)的时候写的,可能会出现一些漏洞(理解 & 符号使用 & 公式,等等很多方面),如果觉得有问题欢迎找我!!! 这部分的文章会在后面的一年中进行更多的打磨和修改!
序号 15 往后的文章主要是高一上学期写的,相对来讲会更专业一些~后面也会进行一些打磨!
\end 注意
(噗哈哈哈这个 \begin 和 \end 不是渲染的问题,我就是这么打的))
Why:为什么我会写这个专栏?
——因为我觉得现有的机器学习资料对初学者太不友好了😭。
“默认” 的数学基础、堆在一起还缺乏解释的公式,无处不在的 “显然” 和 “省略”…
这真的会让人爆炸的🤯,我初学机器学习的那两个月几乎每天都处在这种 “爆炸” 当中。
所以我想写一点对初学者,对很多和我一样的初学者友好的东西,说得再直白点就是让人能看懂的东西。包括但不限于轻松的语言风格,丰富具体的例子,包含详细解释的数学推导,等等。
这个想法在当时可以说是一种冲动,这种冲动大约持续了一个月,随后则成为了一种习惯——在后来的十一个月当中。
That’s all.
接着,我们来说点执行层面的事情(???bruh 这个词为什么这么熟悉)——这个专栏应该怎么看?以什么样的顺序看?每一篇文章有没有具体需要注意的点?
How:如何使用这个专栏?
好呀~那我们就来聊聊具体应该如何使用这个专栏吧!
首先,在深入学习每一个算法之前,你需要对机器学习的一些基础知识有一个大致的了解。
嗯…这个专栏的第一、二篇文章一直没有写,其实它们就是给 “机器学习概述” 留的位置啦!等我写好了会放在这里的!
不过其实,虽然现在还没写好,但是写过的一些内容也涵盖了机器学习的基础知识,如下啦~
用于参数估计(模型优化)的两大方法:
12. 似然函数和极大似然估计:原理、应用与代码实现
15. EM 算法一万字详解!一起来学!
一些可以评估模型性能的指标:
6. 分类算法中常用的模型评价指标有哪些?here!
11. 回归算法中常用的模型评价指标有哪些?here!
确定模型超参数的方法:
7. 交叉验证是什么?有哪些?怎么实现?来看!
同时,还可以简单了解一下熵的概念,有助于更好地理解后面具体算法中的内容:
22. 信息论基础:信息熵、交叉熵、相对熵
okay!把这些看完之后,你对机器学习应该已经有了一个不错的了解!接下来我们可以进入具体算法的研究了…
先从监督学习开始吧!
不妨让线性回归成为第一个算法,这估计是最简单的一个算法了:
10. 新手向,线性回归算法原理一篇吃透!
接着我们可以学习一下 KNN,它是最简单的分类算法:
8. KNN 算法原理 & 实践一篇讲清!
里面 KD-tree 相关的部分如果看不懂可以先跳过。
接下来可以看一看朴素贝叶斯,核心公式只有一个,相对来讲是比较简单的:
5. 从概率到朴素贝叶斯算法,一篇带你看明白!
嗷,后面的部分会变得稍微难一些。
逻辑回归是用得很广的分类模型,公式比前面几个稍多一些,但难度不大:
14. 手撕公式,一篇带你理解逻辑回归!
从逻辑回归出发,我们可以拓展到更为一般化的最大熵原理:
23. 最大熵模型详解+推导来啦!解决 why sigmoid!
然后我们来看一个非常经典的分类模型,也是我学的第一个模型——支持向量机:
3. 支持向量机(SVM)一万字详解!超全超详细超易懂!
注意,支持向量机对偶问题那部分很难,可以 jump jump jump()
ok 呀,接下来我们进入树模型的部分,树模型是机器学习中很重要的组成部分。
first 是基础的决策树,比较直观,公式不难:
13. 决策树算法一万字详解!一篇带你看懂!
决策树之后就是绕不开的集成学习。这里可以先了解一下偏差—方差分解,理解集成学习出现的原因:
24. 从偏差—方差分解到集成学习!包全的!
其中的很多数学细节可以跳过。
然后可以分别学习 Bagging 和 Boosting。建议先学 Bagging,因为数学部分比较简单:
28. 集成学习之 Bagging & 随机森林!
然后是 Boosting:
25. AdaBoost 算法详解+推导来啦!
26. 梯度提升树 GBDT 超详细讲解!
oh,接下来就是更为进阶的主题了——概率图模型。
概率图模型可以分为贝叶斯网络和马尔可夫网络两个部分去学,建议先从贝叶斯网络开始:
27. 贝叶斯网络详解!超!系!统!
这个里面也写了概率图模型的介绍。
贝叶斯网络的一大实例是经典的标注算法隐马尔可夫模型:
20. 隐马尔可夫模型好难?看过来!(上篇)
21. 隐马尔可夫模型好难?看过来!(下篇)
学完贝叶斯网络,再来看看它的另一半——马尔可夫网络:
29. 马尔可夫随机场 2w 字详解!超!系!统!
条件随机场是马尔可夫网络的实例,也是经典的标注算法之一:
30. 理解条件随机场最清晰的思路!(上篇)
31. 理解条件随机场最清晰的思路!(下篇)
好耶!!学完这些,基本的监督学习算法你就已经全都 get 到啦!!!
接下来我们进入无监督学习吧!
无监督学习的算法相对少一些。
我们可以先了解一下几种经典的聚类算法,聚类比较简单,不涉及太多的数学:
19. 各种经典聚类算法,一篇带你过完!(上)
接下来我们来学习一个经典的降维算法——主成分分析。
降维算法的数学普遍比较复杂,如果觉得太难,可以适当跳过一些数学推导:
16. 线代小白也能看懂的矩阵奇异值分解!
17. 讲人话的主成分分析,它来了!(上篇)
18. 讲人话的主成分分析,它来了!(下篇)
无监督学习的基本算法其实也就这两个啦~
恭喜你!!!如果你看完了以上所有文章,你已经成功入门了机器学习!!
(再次撒花!)
嘿嘿~ 那对这个专栏的介绍就到这里啦~ 欢迎帮我宣传呀嘿嘿!!祝学习顺利!!❤~
Passion Is All You Need.
最后,这句话送给你,也送给我。
这篇文章介绍了整个专栏⭐。
欢迎三连!!一起加油!🎇
——Geeker_LStar