
nlp
前行_的路上
这个作者很懒,什么都没留下…
展开
-
用维特比算法解决HMM中的隐状态推测问题
#假设又T个时刻,N个隐状态import numpy as npdef viterbi(A, B, pi, V, Q, obs): #Q为状态集合,obs为观测序列 T = len(obs) N = len(Q) #生成一个T行N列的矩阵作为dp表 dp = np.array([[0]*N]*T, dtype=np.float64) phi = np.array([[0]*N]*T, dtype=np.float64) #根据初始概率矩阵初始化.原创 2022-05-27 20:06:07 · 211 阅读 · 0 评论 -
深度理解RNN的梯度消失和LSTM为什么能解决梯度消失
一、RNN的梯度消失有什么不同之处先说结论:RNN的梯度等于近距离梯度与远距离梯度的和,RNN的梯度消失是远距离梯度的消失,而近距离梯度不会消失,同时总的梯度不会消失,从而导致总的梯度由近距离梯度占主导。提到梯度消失,你肯定会说是因为网络层次太深,导致导数连乘项太多,所以梯度很小。这种回答适用于深度神经网络,但不适用于RNN。因为RNN的梯度是一个和!!而且RNN的是共享一套参数的!但我们在理解RNN的时候,经常喜欢把RNN按时间序列展开,可能会误解RNN是多套参数的,但其实是共用一套参数。原创 2022-05-25 23:20:15 · 1564 阅读 · 0 评论