RNN简单理解;为什么出现Transformer:传统RNN的问题;Attention(注意力机制)和Self-Attention(自注意力机制)区别;
目录
RNN简单理解
RNN n to n
Transformer N to M
LSTM
为什么出现Transformer:传统RNN的问题
信息丢失的后果
Rnn是顺序执行的效率不高:顺序执行
Attention(注意力机制)和Self-Attention(自注意力机制)区别
一、计算对象不同
二、应用场景不同
三、功能差异