AI/LLM 大模型入门指南
这里是 LLM/AI 入门指导文章和代码的目录索引,目前的内容整体会偏向于实践。
我会以阿里云大模型平台所提供的 API 为例,带你从 API 走进本地大模型部署和微调。
非常建议搭配课程【生成式人工智能导论】进行同步学习。
课程主页|视频 - Bilibili
项目完整代码:AI-Guide-and-Demos-zh_CN - Github。
克隆仓库
仓库里将包含所有代码文件,后续不需要再手动下载,如果仓库有更新,使用 git pull 进行拉取。
git clone https://github.com/Hoper-J/AI-Guide-and-Demos-zh_CN.git
指导文章与代码文件一览
- 00. 阿里大模型API获取步骤
- 带你一步步的获取 API,如果是第一次注册,你需要进行一次身份验证(人脸识别)。
- 01. 初识LLM API:环境配置与多轮对话演示
- 这是一段入门的配置和演示,对话代码修改自阿里开发文档。
- 代码文件下载
- 02. 简单入门:通过API与Gradio构建AI应用
- 指导如何去使用 Gradio 搭建一个简单的 AI 应用。
- 代码文件下载
- 03. 进阶指南:自定义 Prompt 提升大模型解题能力
- 你将学习自定义一个 Prompt 来提升大模型解数学题的能力,其中一样会提供 Gradio 和非 Gradio 两个版本,并展示代码细节。
- 代码文件下载
- 04. 认识 LoRA:从线性层到注意力机制
- 在正式进入实践之前,你需要知道LoRA的基础概念,这篇文章会带你从线性层的LoRA实现到注意力机制。
- 05. 理解 Hugging Face 的 AutoModel 系列:不同任务的自动模型加载类
- 我们即将用到的模块是 Hugging Face 中的 AutoModel,这篇文章一样是一个前置知识(当然你可以跳过,等后续产生疑惑时再看)。
- 代码文件下载
- 06. 开始实践:部署你的第一个LLM大语言模型
- 在这里会带你实现LLM大语言模型的部署,项目到现在为止都不会有GPU的硬性要求,你可以继续学习。
- Notebook | app_fastapi.py | app_flask.py
- 07. 探究模型参数与显存的关系以及不同精度造成的影响
- 了解模型参数和显存的对应关系并掌握不同精度的导入方式会使得你对模型的选择更加称手。
- 08. 尝试微调LLM:让它会写唐诗
- 这篇文章与03. 进阶指南:自定义 Prompt 提升大模型解题能力一样,本质上是专注于“用”而非“写”,你可以像之前一样,对整体的流程有了一个了解,尝试调整超参数部分来查看对微调的影响。
- 代码文件下载
- 09. 深入理解 Beam Search:原理, 示例与代码实现
- 将从示例到代码演示,并讲解 Beam Search 的数学原理,这应该能解决一些之前阅读的困惑,最终提供一个简单的使用 Hugging Face Transformers 库的示例(如果跳过了之前的文章的话可以尝试这个示例)。
- 代码文件下载
- 10. Top-K vs Top-P:生成式模型中的采样策略与 Temperature 的影响
- 进一步向你展示其他的生成策略。
- 代码文件下载
- 11. DPO 微调示例:根据人类偏好优化LLM大语言模型
- 一个使用 DPO 微调的示例。
- 代码文件下载
- 12. Inseq 特征归因:可视化解释 LLM 的输出
- 翻译和文本生成(填空)任务的可视化示例。
- 代码文件下载
- 13. 了解人工智能可能存在的偏见
- 不需要理解代码,可以当作休闲时的一次有趣探索。
- 代码文件下载
- 14. PEFT:在大模型中快速应用 LoRA
- 学习如何在导入大模型后增加 LoRA 层。
- 代码文件下载
- 15. 0 基础也能轻松实现 AI 视频摘要
- 你将了解到常见的 AI 视频总结小助手背后的原理,并开始实现你的第一次 AI 视频摘要。
- Code - 完整版 | Code - 精简版 | [🎡AI Summarizer 脚本
拓展阅读
- 使用 HFD 加快 Hugging Face 模型和数据集的下载
- 深入理解全连接层:从线性代数到 PyTorch 中的 nn.Linear 和 nn.Parameter