笔记关键词检索?

在所有笔记中搜索你感兴趣的关键词!

《TensorFlow深度学习算法原理与编程实战》

作者:蒋子阳


信息量

假设我们听到了两件事,分别如下:
事件A:巴西队进入了2018世界杯决赛圈。
事件B:中国队进入了2018世界杯决赛圈。
仅凭直觉来说,显而易见事件B的信息量比事件A的信息量要大。究其原因,是因为事件A发生的概率很大,事件B发生的概率很小。所以当越不可能的事件发生了,我们获取到的信息量就越大。越可能发生的事件发生了,我们获取到的信息量就越小。那么信息量应该和事件发生的概率有关。

假设X

是一个离散型随机变量,其取值集合为χ,概率分布函数p(x)=Pr(X=x),x∈χ,则定义事件X=x0

的信息量为:

I(x0)=−log(p(x0))

由于是概率所以p(x0)的取值范围是[0,1],绘制为图形如下:



可见该函数符合我们对信息量的直觉

参考资料: https://blog.csdn.net/u010521842/article/details/82186910

评论 (0)

发布评论

你的邮箱地址不会被公开。请输入所有带 * 的信息。