LSTM
01.png
圖A是在走隱層的路上,第一道門忘記門x[0,1],決定保留多少信息過來绽诚;第二道門,+[-1,1],信息增益門杭煎,多的更多少的更少恩够。
02.png
機(jī)器學(xué)習(xí)面試之Attention
http://www.reibang.com/p/c94909b835d6
Attention注意力機(jī)制介紹
https://www.cnblogs.com/hiyoung/p/9860561.html
自然語言處理中的Attention Model:是什么及為什么
https://blog.csdn.net/malefactor/article/details/50550211