我是靠谱客的博主 简单心锁,最近开发中收集的这篇文章主要介绍李宏毅深度学习笔记(六)逻辑回归设置函数判断函数的好坏找一个最好的函数逻辑回归和线性回归的对比为什么逻辑回归不用平方损失函数,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

设置函数

我们可以找到一个函数 P w , b ( C 1 ∣ x ) P_{w,b}(C_1|x) Pw,b(C1x),如果 P w , b ( C 1 ∣ x ) ≥ 0.5 P_{w,b}(C_1|x)ge0.5 Pw,b(C1x)0.5则输出 C 1 C_1 C1,否则输出 C 2 C_2 C2
逻辑回归的模型如下:
P w , b ( C 1 ∣ x ) = σ ( z ) P_{w,b}(C_1|x)=sigma(z) Pw,b(C1x)=σ(z)

z = w x + b = ∑ i = 1 n w i x i + b z=wx+b=sum_{i=1}^nw_ix_i+b z=wx+b=i=1nwixi+b

σ ( z ) = 1 1 + e x p ( − z ) sigma(z)=frac{1}{1+exp(-z)} σ(z)=1+exp(z)1
在这里插入图片描述
所以我们设置函数为:
在这里插入图片描述

判断函数的好坏

假设我们有下面的一组数据:
在这里插入图片描述
我们假定数据是依据函数 f w , b ( x ) = P w , b ( C 1 ∣ x ) f_{w,b}(x)=P_{w,b}(C_1|x) fw,b(x)=Pw,b(C1x)生成的,那么接下来我们就要求取参数 w w w b b b了。
我们定义:
在这里插入图片描述
最有可能让训练集呈现上面的样子的是使 L ( w , b ) L(w,b) L(w,b)最大的 w ∗ w^* w b ∗ b^* b,即:
在这里插入图片描述
为了简化计算,我们对上式进行一下转换:
在这里插入图片描述
这时候原本的乘法就变成了加法:
在这里插入图片描述
又(这里用到了交叉熵.),我们定义 − l n L ( w , b ) -lnL(w,b) lnL(w,b)为交叉熵损失函数
在这里插入图片描述在这里插入图片描述

找一个最好的函数

交叉熵损失函数对 w i w_i wi求偏导(这里用到了求导的链式法则)
在这里插入图片描述
进行化简得:
在这里插入图片描述

逻辑回归和线性回归的对比

在这里插入图片描述

为什么逻辑回归不用平方损失函数

如果我们在逻辑回归中用了平方损失函数的话:
在这里插入图片描述
我们可以看到,如果目标值 y ^ n = 1 hat y^n=1 y^n=1,当 f w , b ( x n ) = 1 f_{w,b}(x^n)=1 fw,b(xn)=1时,偏导数为0,也就是说因为我们计算出来的值跟目标值是一样的所以不需要更新,这是正确的。但当 f w , b ( x n ) = 0 f_{w,b}(x^n)=0 fw,b(xn)=0的时候,平方损失函数的偏导数为0,也就是说不需要更新,但事实上我们的计算值离实际值很远。
同样的情况会出现在 y ^ n = 0 hat y^n=0 y^n=0中。
在这里插入图片描述

最后

以上就是简单心锁为你收集整理的李宏毅深度学习笔记(六)逻辑回归设置函数判断函数的好坏找一个最好的函数逻辑回归和线性回归的对比为什么逻辑回归不用平方损失函数的全部内容,希望文章能够帮你解决李宏毅深度学习笔记(六)逻辑回归设置函数判断函数的好坏找一个最好的函数逻辑回归和线性回归的对比为什么逻辑回归不用平方损失函数所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(39)

评论列表共有 0 条评论

立即
投稿
返回
顶部