现实胡萝卜

文章
4
资源
0
加入时间
2年10月21天

信息熵、联合熵、条件熵、互信息信息熵、联合熵、条件熵、互信息

一个随机事件xxx的自信息量1定义为:I(x)=log⁡1p(x)I(x)=\log\frac{1}{p(x)}I(x)=logp(x)1​注意,在信息论中,log⁡\loglog函数的底通常设置为2,此时,自信息量的单位为比特(bit);在机器学习中,log⁡\loglog函数的底通常设置为自然常数e,此时,自信息量的单位为奈特(nat)。需要从以下两方面来理解自信息量:举例说明,“中彩票”事件的概率极小,但是一旦中了彩票,“中彩票”事件的自信息量很大,也就是说,“中彩票”会获得极大的信息量(