《TensorFlow深度学习算法原理与编程实战》
作者:蒋子阳
在所有笔记中搜索你感兴趣的关键词!
作者:蒋子阳
假设我们听到了两件事,分别如下:
事件A:巴西队进入了2018世界杯决赛圈。
事件B:中国队进入了2018世界杯决赛圈。
仅凭直觉来说,显而易见事件B的信息量比事件A的信息量要大。究其原因,是因为事件A发生的概率很大,事件B发生的概率很小。所以当越不可能的事件发生了,我们获取到的信息量就越大。越可能发生的事件发生了,我们获取到的信息量就越小。那么信息量应该和事件发生的概率有关。
假设X
是一个离散型随机变量,其取值集合为χ,概率分布函数p(x)=Pr(X=x),x∈χ,则定义事件X=x0
的信息量为:
I(x0)=−log(p(x0))
由于是概率所以p(x0)的取值范围是[0,1],绘制为图形如下:
可见该函数符合我们对信息量的直觉
参考资料: https://blog.csdn.net/u010521842/article/details/82186910
评论 (0)