我是靠谱客的博主 冷静乌龟,最近开发中收集的这篇文章主要介绍softmax代价函数的导数计算,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

对于softmax的理解请参考Ufldl教程,本文仅对代价函数求导部分进行推导


softmax regression 代价函数:

J(θ)=1mi=1mj=1k1{y(i)=j}logeθTjx(i)kl=1eθTjx(i)

导数计算:
首先利用 logab=log(a)log(b) 将log函数内部展开:
1{yi=j}logeθTjxikl=1eθTlxi=1{yi=j}[log(eθTjxi)log(l=1keθTlxi)]

接着对 θj 求导得:
1{yi=j}[xieθTjxikl=1eθTlxixi]=xi(1{yi=j}eθTjxikl=1eθTlxi)=xi(1{yi=j}p(yi=j|xi,θ)

上式中,将 log 看成 ln ,另外,每一次的求导其实只是针对 θ 中的某一项 j ,所以其他的θ的非 j 项都为常数,所以求导以后都为0
这样就得到了梯度函数:
Jθj=1ni=1n[xi(1{yi=j}p(yi=j|xi,θ)]

原文出处:http://zjjconan.github.io/articles/2015/04/Softmax-Regression-Matlab/

最后

以上就是冷静乌龟为你收集整理的softmax代价函数的导数计算的全部内容,希望文章能够帮你解决softmax代价函数的导数计算所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(198)

评论列表共有 0 条评论

立即
投稿
返回
顶部