当前位置: 首页 > article >正文

NLP入门

NLP入门+文本预处理
    什么是自然语言处理?
让计算机去理解人类语言
    认识文本预处理
        文本预处理及作用
前提:之前用pandas等进行数据分析,也属于文本预处理的范围
文本预处理作用:将文本转换成模型能够识别的形式,进而实现模型的训练
        文本预处理的基本方法:
分词:
  分词的意义:
  一般实现模型训练的时候,模型接受的文本基本最小单位是词语,因此我们需要对文本进行分词
词语是语意理解的基本单元
英文具有天然的空格分隔符,而中文分词的目的:寻找一个合适的分词边界,进行准确分词
 常用分词工具:
  jieba分词工具
  精确模式:就是按照人类擅长的表达词汇的习惯来分词
  全模式分词:将尽可能成词的词汇分割出来
  搜索引擎模式:
  在精确模式分词的基础上,将长粒度的词再次切分
  支持中文繁体分词
  支持用户自定义词典
      词典的意义:
      可以根据自定义词典,修改jieba分词方式,优先考虑词典里面的词来切分
       格式:词语  词频(可省略)    词性(可省略)
命名实体识别(NER)
定义:
命名实体:通常指: 人名,地名,机构名等专有名词
NER:从一段文本中识别出上述描述的命名实体
实现方式:
模型训练(后续项目)
词性标注
定义:
对每个词语进行词性的标注: 动词,名词,形容词等
        文本张量的表示方式
文本张量表示
意义:将文本转换为向量(数字)的形式,使得模型能够识别进而实现训练,一般是进行词向量的表示实现的方式:
one-hot
word2Vec
wordEmbedding
            One-Hot 词向量表示
定义:针对每一个词汇,都会用一个向量表示,向量的长度是n,n代表去重    之后的词汇总量,而且向量只有0,和1两种数字
俗称:独热编码,01编码
ONe-Hot编码的缺点
割裂了词与词之间的联系
如果n过大,会导致占用大量的内存(维度爆炸)
            Word2Vec模型
Word2Vec是一种无监督训练方法,本质是训练一个模型,将模型的参数矩阵当作所有词汇的词向量表示
两种训练方式: cbow,skipgram
            CBOW介绍
给一段文本,选择一定的窗口,然后利用上下文预测中间目标值


http://www.kler.cn/a/286514.html

相关文章:

  • sem_wait的概念和使用案列
  • Java 在包管理与模块化中的优势:与其他开发语言的比较
  • 小白爬虫冒险之反“反爬”:无限debugger、禁用开发者工具、干扰控制台...(持续更新)
  • 如何获取小程序的code在uniapp开发中
  • 世上本没有路,只有“场”et“Bravo”
  • Julia Distributed(分布式计算)详解
  • 如何优化LSTM模型的性能:具体实践指南
  • 深入理解指针(6)
  • 计算机毕业设计Hadoop+Spark抖音可视化 抖音舆情监测 预测算法 抖音爬虫 抖音大数据 情感分析 NLP 自然语言处理 Hive 机器学习 深度学习
  • QIIME2宏基因组学教程--2024年春季莱顿和苏黎世教程
  • oracle物理存储结构文件详解
  • 【Tools】二叉树先序遍历
  • 网闸与防火墙的区别
  • js生成唯一标识符(例如key或者id)
  • linux小程序-进度条
  • 【iOS】如何制作苹果开发者证书、p12文件全流程(图文详情)
  • Python标准库学习之platform模块
  • macos USB外接键盘ctrl键绑定方法 解决外接USB键盘与mac键盘不一致问题
  • SpringSecurity Oauth2 - 密码认证获取访问令牌源码分析
  • gNB UE发送Timing AdvanceCommand
  • 新手如何学单片机
  • 续:MySQL的gtid模式
  • Nginx: TCP建立连接的优化和启用Fast Open功能
  • unicode编码存在转义字符,导致乱码问题的解决方案
  • 在gitignore忽略目录及该目录下的子文件
  • Guava Cache实现原理及最佳实践