【自然语言处理】P1 对文本编码(One-Hot 与 TF-IDF)
目录
- 独热表示(One-hot)
- TF-IDF
- 此外
对文本编码,目标是将自然语言文本表示为向量,从而便于继续处理和分析文本数据。三种常用对文本编码方法如下:
独热表示(One-hot)
独热表示(One-hot encoding)将句子中的每个单词转换为一个固定长度的二进制向量,其中每个向量表示句子中单词的独热编码。这个过程通常包括建立词库、独热编码两个步骤:
# 以这两个句子建立独热表示:
Time flies like an arrow.
Fruit flies like a banana.
- 建立词库:首先建立一个词库,包含两个句子中出现所有的单词。一般来说,词库中所有字符小写,且不包含逗号等标点字符。
# 上述两个句子的词库为:
{time, fruit, flies, like, a, an, arrow, banana}
- 独热编码:对于句子中每个单词,创建一个二进制向量,其长度等于词库的大小。在这个向量中,单词在词库中的位置对应一个1,其余位置都是0。这样,每个单词都得到了唯一的独热编码。
# 两个句子的独热编码为:
Time flies like an arrow.
[1, 0, 1, 1, 0, 1, 1, 0]
Fruit flies like a banana.
[0, 1, 1, 1, 1, 0, 0, 1]
独热编码可以确保每个单词都有一个唯一的向量表示,但它的缺点在于,没有捕捉到单词之间的任何语义关系。
TF-IDF
TF-IDF(Term Frequency-Inverse Document Frequency)用于评估一个词对于一个文档集合中一个文档的重要程度。
计算 TF-IDF,我们需要遵循以下五个步骤:
- 分词(Tokenization):将文本分解为单词或词组。
- 创建文档频率(DF)表:记录每个词在整个文档集合中出现的文档数量。
- 计算词频(TF):对于每个词,计算它在每个文档中的出现次数除以该文档的总词数。
- 计算逆文档频率(IDF):使用公式 I D F = log N N D F IDF = \log_N \frac{N}{DF} IDF=logNDFN 来计算,其中 N N N 是文档集合的大小, D F DF DF 是词的文档频率。
- 计算TF-IDF:将 TF 和 IDF 相乘得到 TF-IDF 值。
e . g . e.g. e.g. 假设我们有以下文档集合:
文档1:"The quick brown fox jumps over the lazy dog."
文档2:"The quick brown fox jumps over the lazy dog again."
文档3:"The quick brown fox jumps over the lazy dog for the third time."
我们将使用这些句子来计算词 “fox” 的 TF-IDF 值,五个步骤如下:
- 分词:
文档1:["The", "quick", "brown", "fox", "jumps", "over", "the", "lazy", "dog."]
文档2:["The", "quick", "brown", "fox", "jumps", "over", "the", "lazy", "dog", "again."]
文档3:["The", "quick", "brown", "fox", "jumps", "over", "the", "lazy", "dog", "for", "the", "third", "time."]
- 创建 DF 表:
- “fox” 在 文档1、2、3中都出现了,所以 DF = 3。
- 计算 TF:
- 文档1中 “fox” 的 TF = 1/9 = 0.1111
- 文档2中 “fox” 的 TF = 1/10 = 0.1
- 文档3中 “fox” 的 TF = 1/12 = 0.0833
- 计算 IDF:
- I D F = l o g N ( N D F ) IDF = log_N (\frac N {DF}) IDF=logN(DFN)
- 假设整个文档集合的大小 N = 1000,那么 I D F = l o g 1000 ( 1000 3 ) ≈ 1.5849 IDF = log_{1000} (\frac {1000} 3) ≈ 1.5849 IDF=log1000(31000)≈1.5849
- 计算 TF-IDF:
- 文档1中 “fox” 的 TF-IDF = 0.1111 * 1.5849 ≈ 0.176
- 文档2中 “fox” 的 TF-IDF = 0.1 * 1.5849 ≈ 0.1585
- 文档3中 “fox” 的 TF-IDF = 0.0833 * 1.5849 ≈ 0.132
因此,词 “fox” 在文档1、文档2和文档3中的 TF-IDF 值分别是 0.176、 0.1585 和 0.132。
TF-IDF值越高,意味着这个词在对应文档中的重要性越高。
此外
此外,还有很多其他对文本编码方法,如:
[1] RNN、LSTM 深度学习模型通过训练,可以捕捉文本中长期依赖关系,并生成能够反映文本含义的复杂向量表示。
[2] 注意力机制 使模型能够关注输入序列中不同部分,帮助模型集中在最重要的单词或词组上,从而生成更有效的向量表示。
[3] 词嵌入方法如 Word2Vec 和 GloVe 将单词映射到连续向量空间,相似的单词会有相似的向量表示。能够有效捕捉单词的语义和句法关系。
这些方法都将在后续博文中单独介绍。
发布:2024/2/2
版本:第一版
如有任何疑问,请联系我,谢谢!