softmax函数与交叉熵

max()是大,softmax(),软的大,也就是概率大,模糊大,作用是把一组数字映射到0-1区间,比如一个数组a,转化后就是

假设真值y对应的数字为


这个example损失为-logP,总体损失就是-∑logP,这个就是总的交叉熵,因为
一个example的交叉熵是-∑plogq,p是真实分布,只有p=1的那项留了下来,所以就是
-logq,也就是上面表达的-logP,再对整个样本求总体的损失就是-∑logP,所以这玩意就是交叉熵

留言

熱門文章