这本书简直就是自然语言处理学习者的福音!
自然语言处理被誉为“人工智能皇冠上的明珠”!
深度学习等技术的引入为自然语言处理技术带来了一场革命,近年来也出现了自然语言处理的新范式。
早期的静态词向量预训练模型,以及后来的动态词向量预训练模型,特别是2018 年以来,以 BERT、GPT 为代表的超大规模预训练语言模型恰好弥补了自然语言处理标注数据不足的缺点,帮助自然语言处理取得了一系列的突破。
所以,这种预训练 + 精调的模式,已经成为了自然语言处理的新范式。
所谓模型预训练(Pre-train),即首先在一个原任务上预先训练一个初始模型,然后在下游任务(也称目标任务)上继续对该模型进行精调(Fine-tune),从而达到提高下游任务准确率的目的。
为了能够刻画大规模数据中复杂的语言现象,还要求所使用的深度学习模型容量足够大。基于自注意力的 Transformer 模型显著地提升了对于自然语言的建模能力,是近年来具有里程碑意义的进展之一。
可以说,超大规模预训练语言模型完全依赖“蛮力”,在大数据、大模型和大算力的加持下,使自然语言处理取得了长足的进步。
那么,预训练模型是如何获得如此强大威力甚至是“魔力”的呢?
由车万翔老师等所著的 《自然语言处理:基于预训练模型的方法》 一书从预训练模型的角度对这两次重要的发展进行了系统性的论述,能够帮助读者深入理解这些技术背后的原理、相互之间的联系以及潜在的局限性,对于当前学术界和工业界的相关研究与应用都具有重要的价值。
内容概览
本书内容分为三部分:基础知识、预训练词向量和预训练模型。
第1 部分:基础知识。包括第2~4 章,主要介绍自然语言处理和深度学习的基础知识、基本工具集和常用数据集。
第2 部分:预训练词向量。包括第5、6 章,主要介绍静态词向量和动态词向量两种词向量的预训练方法及应用。
第3 部分:预训练模型。包括第7~9 章,首先介绍几种典型的预训练语言模型及应用,其次介绍目前预训练语言模型的最新进展及融入更多模态的预训练模型。
适读人群
本书既适合具有一定机器学习基础的高等院校学生、研究机构的研究者,以及希望深入研究自然语言处理算法的计算机工程师阅读,也适合对人工智能、深度学习和自然语言处理感兴趣的学生和希望进入人工智能应用领域的研究者参考。
本书特色
1. 结合具体案例讲解模型方法
2. 各类结构图、模型图全彩印刷,一目了然
*
这《自然语言处理:基于预训练模型的方法》已经上传CSDN,还有完整版的大模型 AI 学习资料,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
PDF书籍: 完整版本链接获取
👉[CSDN大礼包🎁:《
自然语言处理:基于预训练模型的方法
》免费分享(安全链接,放心点击)]👈