Simple to LSTM 一句话,有时候单独拎出来难以理解,而放在整篇文章中,我们则容易通过联系上下文理解。什么叫联系上下文理解,就是把前文信息联系结合到当前语句上,这也是RNN的关键。基本概念:维基百科 RNN(Recurrent Neural Networks) Rnn本质是一个循环神经网络结构,将其展开,会得到一个序列结构,上一次的输出会作为下一次的输入(即前面的输入将会对后面的输入产生影响)。 这种链式的特征揭示了 R... 2020-11-20 simple for nlp 1条评论 LSTM、RNN