一、dropout原理
神经网络中dropout以p的概率丢弃该层的节点。p=0时,没有节点被丢弃。p=1时,将丢弃所有节点。被丢弃的节点hi=0h_i=0hi=0,保留下来的节点hi=hi′h_i=h_i'hi=hi′。其中要满足E[hi′]=hiE[h_i']=h_iE[hi′]=hi。h′={
0丢弃概率为ph1−p其他情况h'= \begin{cases} 0& \text{丢弃概率为p}\\ \frac{h}{1-p}& \text{其他情况} \end{cases}h′={
01−ph丢弃概率为p其他情况
假设单隐层,共5个隐层节点的网络如下所示:当p=0.5时,每个节点都有0.5的概率被丢弃。保留下来的节点数值h′=h1−0.5h'= \frac{h}{1-0.5}h′=