当前位置: 首页 > article >正文

【自然语言处理】P1 自然语言处理概述

目录

  • 什么是自然语言处理
    • 定义
    • 常用术语
    • 自然语言处理的任务
    • 自然语言处理的发展历程
    • 自然语言处理的挑战
    • 自然语言处理的常用技术
      • ==TF-IDF==
      • ==词嵌入==
      • ==分词==
      • ==循环神经网络==
      • ==注意力机制==
      • ==预训练==

什么是自然语言处理

定义

自然语言指的是人类的语言,如中文、英语等,处理特指使用计算机技术处理,所以自然语言处理(NLP)就是指使用计算机处理人类的语言。

自然语言处理属语言学、计算机科学、信息工程和人工智能的交叉领域,涉及的内容非常广泛。人类的语言本身是复杂的,所以自然语言处理的任务也是多种多样的。

常用术语

自然语言处理中的常用术语如下:

  • 语料:语言材料,积累大量的词条可以构成一个语料库。
  • 自然语言:自然演化形成的人类语言。
  • 形式化语言:用数学方法精确定义的语言,如计算机程序设计语言。
  • 分词:把一个句子分解为多个词语。
  • 词频:一个词在一定范围的语料中出现的次数。
  • 机器学习(Machine Learning):通过算法和程序让计算机从数据中自主学习知识。
  • 深度学习(Deep Learning):使用深度神经网络的机器学习方法。
  • 人工神经网络(Artificial Neural Network):简称神经网络,是一种模拟人脑神经元处理信息的过程的模型。
  • 训练模型:在训练过程中使用学习型算法,根据训练数据更新自身参数,从而更好地解决问题。

自然语言处理的任务

广义地说,自然语言处理包含对各种形式地自然语言的处理(如语音识别、光学字符识别),还包括理解文字的含义(如自然语言理解),还可能需要让机器有自己组织语言的能力(即自然语言生成),甚至还需要输出这些语言(如语音合成)等。

笼统地说,人们定义自然语言处理中重点任务有两个:语言理解语言生成。处理的对象可分为3种:词语/字、句子、篇章。

具体地说,自然语言处理的任务有如下4类:

  • 序列标注:给句子或者篇章中的每个词或字一个标签,包含如分词、词性标注等
  • 文本分类:给句子或篇章一个标签,包含如情感分析等
  • 关系判断:判断多个词语、句子、篇章之间的关系,包含如选词填空等
  • 语言生成:产生自然语言的字、词、句子、篇章等,包含如问答系统、机器翻译

自然语言处理的发展历程

  1. 基于规则的方法:早期自然语言处理依赖人工设定的规则,语言学家研究语言本身的规律,把归纳好的规则编写成程序,告诉计算机应该怎么做。劣势在于,简单的规则和有限的词汇无法适应多变的自然语言。
  2. 经验主义和理性主义:经验主义主张通过观察得到规律,理性主义主张通过推理而不是观察得到规律。
  3. 机器学习方法:随着数据的积累和计算机性能的提高,基于概率与统计的机器学习和深度学习方法在自然语言处理领域的表现越来越好。
    • Word2vec模型(Google,2013),可以从语料中自主学习得出每个词语的向量表示,通过向量间的数学关系反映词语之间的语义关系。
    • Seq2seq模型(Google,2014),在机器翻译领域的性能明显超过传统模型。
    • BERT模型(Google,2018),开始采用 Transformer 框架,同时关注 encoder 和 decoder 两端。
    • GPT-3模型(OpenAI,2021),同样基于自注意力机制,只关注生成部分,推出 ChatGPT 产品。
    • ChatGLM、Qwen、llama 等(2022-至今)

自然语言处理的挑战

自然语言处理任务的难题在于:自然语言的灵活多样,没有明确的规则和边界,且自然语言会随着时间而发生变化,新的词语和表达方式也可能不断出现。

实际上,人们在理解句子时,会选择自己认为更合理的意思,有一些句子虽然可以有两种意思,但是根据经验我们可以判断其确切的含义,而计算机则不然。

  1. 歧义问题:自然语言中存在大量的歧义现象,同样的文字可能有不同的含义,而同样的意思也可以用完全不同的文字来表达。

    • e . g . e.g. e.g. 理解歧义:“他介绍了他们公司自动化所取得的成就”
    • e . g . e.g. e.g. 指代歧义:“小明做了好事,老师表扬了小明,他很高兴”
  2. 语言的多样性:自然语言中,完全相同的意思可以用截然不同的方式来表达,所以自然语言处理的方法不仅要能适应自然语言的多样性,还要使输出的内容多样而自然。

  3. 未登录词:自然语言中随时可能有新词汇和新用法的出现,很多自然语言处理的方法依赖预先定义或者在学习、训练中生成的词表。未登录词就是指此词表中不存在的词语,或者训练过程中未出现过的词语。因为缺乏这些词的信息,所以处理未登录词或原有词汇的新用法是困难的。

  4. 数据稀疏:语料中,除了少数常用词汇出现的频次较高,还有很多不常用的词汇,虽然这些不常用的词汇的数量多,但是单个词汇出现的次数较少。词频出现28分布。

自然语言处理的常用技术

TF-IDF

TF-IDF 用于评估一个词在一定范围的语料中的重要程度。

  • TF:词频(Term Frequency),指一个词在一定范围的语料中出现的次数,词在语料中出现的次数越多说明其越重要。
  • IDF:逆文本频率(Inverse Document Frequency),而出现次数很多的这个词,可能是“的”这样在所有语料中出现次数都很多的词,所以出现了逆文本频率,即这个词在某个语料中出现了,但是在整个语料库中出现得很少,就能说明这个词在这个语料中很重要。

词嵌入

词嵌入(word embedding),使用向量表示词语。

因自然语言处理是使用计算机技术处理自然语言,所以需要用计算机能理解的符号表示字或词。问题在于,一是词语的海量,二是简单的编码无法表达词语之间的语义关系。

词嵌入使用特定的算法,使用多维向量来表示一个词语,从而不忽略词语间的关系。

分词

分词指将句子划分为词语序列。

英文分词可以直接通过空格分隔开。中文分词会因不同的分词方案让句子表现出不同的含义,故需做探究。

循环神经网络

循环神经网络(Recurrent Neural Network, RNN),用于处理序列数据的神经网络,适合处理不定长度的句子分析序列。

注意力机制

注意力机制(Attention Mechanism)是自然语言处理领域乃至深度学习领域中十分重要的技术,源于人们对人类视觉机制的研究。

人类在观察事物时,会把注意力分配到关键的地方,而相对忽视其他细节。在自然语言处理中,通过使用注意力机制,模型会将重要的地方分配更高的权重。

预训练

预训练是一种迁移学习方法,通过预先在一个大规模的语料库上训练,通过设计通用的任务,得到一个通用的预训练权重。在实际应用之前,在预训练的基础上,使用相应场景的数据和任务再进行二次训练。

预训练的好处在于,使用较大规模的语料,模型可以对语言有全面的学习,再特定场景和进行特定数据训练时,可以使用更小的数据集和进行更少的训练得到相对好的结果。


http://www.kler.cn/a/503907.html

相关文章:

  • C++中引用参数与指针参数的区别与联系详解
  • 二级C语言 2025/1/14
  • [ Spring ] Install MongoDB on Ubuntu24
  • EFK采集k8s日志
  • ASP.NET Core 中,Cookie 认证在集群环境下的应用
  • 【C++】深入理解string相关函数:实现和分析
  • 【SpringSecurity】SpringSecurity安全框架登录校验流程与登录配置示例
  • 时序数据库的订阅对比:TDengine vs InfluxDB 谁更强?
  • CentOS 6.8 安装 Nginx
  • 在ES6模块中导入和导出
  • C语言基本知识复习浓缩版:控制语句--分支
  • Flutter路由动画Hero函数的使用
  • 《利用深度神经网络在广角小口径望远镜中实现天文目标的检测与分类》论文精读
  • 价值尺度如何衡量?
  • “AI 自动化效能评估系统:开启企业高效发展新征程
  • 供应链数字化转型参考大型供应链系统技术架构设计方案
  • PBR(策略路由)的几种使用方式
  • C语言导航 7.2函数的调用
  • 常见的Web GIS地图库
  • C++ NULL和nullptr
  • web-前端小实验7
  • nginx 实现 正向代理、反向代理 、SSL(证书配置)、负载均衡 、虚拟域名 ,使用其他中间件监控
  • arcgis提取不规则栅格数据的矢量边界
  • 微信小程序集成Vant Weapp移动端开发的框架
  • LeetCode题练习与总结:01 矩阵--542
  • 构建优雅、高效的 Nodejs 命令行工具 - Archons