博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
"模式识别与机器学习"读书笔记——1.6 Information Theory
阅读量:5072 次
发布时间:2019-06-12

本文共 504 字,大约阅读时间需要 1 分钟。

信息论初步。

越少出现的事件其包含的信息量越大,用h(x)表示, h(x)需满足性质:h(x,y)=h(x)+h(y),x,y是两个不相关事件。

由此可以对h(x)建立模型:h(x)=-log2p(x)。

如果要把本地的随机发生的事件传到另一个地方,需要传输的平均信息量为:

2011071111424033.jpg

这个H[x]也叫做熵。x的分布越均匀,熵越大。

熵在信息学上很像那个最短路径编码,都表明了传递信息所需要的最短信息量。

然后举了个物品分配箱子的例子证明分布越平均,熵越大。

对连续分布的变量结论依旧成立,也给出了证明。

1.6.1 Relative entropy and mutual information

如果我们要用一个分部q表示实际分部p,如何才能定量描述这两者之间差多远呢?

用相对熵就可以,恒大于等于0,只有q与p相等时才为0

如果两个分布不是独立的,如何确定它们之间的不独立程度,就要用到mutual information概念,就是求p(x,y)与p(x)p(y)的相对熵

转载于:https://www.cnblogs.com/plwang1990/archive/2011/07/11/2102890.html

你可能感兴趣的文章
【mysql升级步骤】windows mysql版本升级 ,mysql 5.6 升级到5.7.27
查看>>
Linux内核优化
查看>>
为什么应用程序用户启动时崩溃,使用xcode打开却不会
查看>>
session
查看>>
多线程面试题Top53
查看>>
多线程编程
查看>>
django中模型详解-字段类型与约束条件
查看>>
js学习总结----预解释、作用域、this原理及应用
查看>>
js面试题-----算法类
查看>>
2)添加光标和图标
查看>>
人工智能会伤害人类吗?怎样控制他们?
查看>>
【趟坑】公共引用的jar包 pom的配置方法
查看>>
leetcode 110 Balanced Binary Tree
查看>>
时间单位与存储单位换算
查看>>
OC调用Swift
查看>>
禅定感受记录 1
查看>>
node 开启本地服务器代码
查看>>
[LeetCode] Delete Node in a Linked List
查看>>
分分钟教会你使用HTML写Web页面
查看>>
ubuntu64运行32位程序安装过程
查看>>