我是靠谱客的博主 现实灰狼,最近开发中收集的这篇文章主要介绍各种信息熵(Information entropy)的计算方法,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

一、Jensen不等式


若f为区间I上的凹函数,则Jensen不等式成立:

image

这里若函数f为凹函数,则有:

image


凹函数(上凸)如下图所示:

image

归纳证明:

image


二、信息论

1.熵(信息不确定性度量)

image

2.联合熵

image

3.条件熵


条件熵的另一种表达方式



4.互信息(信息增益)

两个随机变量X, Y的互信息,定义为X,Y的联合分布和独立分布乘积的相对熵。

image


5.相对熵

设p(x)、 q(x)是X中取值的两个概率分布, 则p对q的相对熵是


说明:
相对熵可以度量两个随机变量的“距离” 。一般的, D(p||q) ≠D(q||p)、D(p||q)≥0、 D(q||p) ≥0


三、总结

H(X|Y) = H(X,Y) - H(Y)

H(X|Y) = H(X) - I(X,Y)

H(Y|X)= H(X,Y) - H(X)

H(Y|X)= H(Y) - I(X,Y)

I(X,Y)= H(X) + H(Y) - H(X,Y)

H(X|Y) ≤H(X) , H(Y|X) ≤H(Y)



最后

以上就是现实灰狼为你收集整理的各种信息熵(Information entropy)的计算方法的全部内容,希望文章能够帮你解决各种信息熵(Information entropy)的计算方法所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(35)

评论列表共有 0 条评论

立即
投稿
返回
顶部