softmaxwithloss入门及88.3365解决之道
softmax with loss:softmax从名字上看就是软最大,其做法其实很简单:前提:最后输出向量长度为N,与要区分的类别个数一致1 第一步,取向量的最大值,将每个值减去最大值,这样就会将所有的数都变成非正数2 求softmax:3 经过第二步就会将向量变成全部小于1,大于0,累加为1的向量,这样就比较符合我们输出每个类别的概率的判断:在那个类别下的值