Machine Learning
  • Introduction
  • 机器学习
    • 前言
      • 符号表
    • 监督式学习
      • 感知机
        • 感知机模型
        • 感知机学习算法
        • 算法python实现
      • Logistic回归
        • Logistic分布
        • Logistic回归模型
        • 算法python实现
      • 线性回归
        • 线性回归模型
        • 算法python实现
      • K近邻法
        • k近邻模型
        • kd树方法
        • kd树python实现
        • knn实例
      • 朴素贝叶斯法
        • 模型和原理
        • 参数估计
        • 算法和实现
      • 决策树
        • 模型与学习
        • 特征选择
        • 生成算法和剪枝
        • python实现
      • 支持向量机
    • 神经网络
      • 神经元模型和感知机
      • 神经网络
      • 神经网络的矩阵表达
      • 反向传播算法
        • 算法证明
        • 算法代码
        • 基于矩阵的计算
      • 改进神经网络的学习方法
        • 交叉熵代价函数
        • softmax
        • regularization
        • 权重初始化
      • 卷积神经网络
        • 基本介绍
    • 数学基础
      • 线性代数
        • 特征值和特征向量
      • 概率统计
        • 随机变量的特征
        • 样本统计量
        • 先验后验概率
      • 微积分
        • 向量内积
        • 方向导数和梯度
        • 梯度下降法
      • 信息论
        • 熵
        • 相对熵和交叉熵
        • 条件熵
        • 互信息
Powered by GitBook
On this page
  1. 机器学习
  2. 数学基础
  3. 信息论

互信息

Previous条件熵

Last updated 7 years ago

互信息

参考:

两个随机变量的互信息(Mutual Information,简称MI)是两个变量相互依赖性的量度。

I(X,Y)=H(Y)−H(Y∣X)=H(X)−H(X∣Y)=H(X)+H(Y)−H(X,Y)I(X,Y)=H(Y)-H(Y|X)=H(X)-H(X|Y)=H(X)+H(Y)-H(X,Y)I(X,Y)=H(Y)−H(Y∣X)=H(X)−H(X∣Y)=H(X)+H(Y)−H(X,Y)

直观地说,如果把熵H(Y)H(Y)H(Y) 看作一个随机变量不确定度的量度,那么 H(Y∣X)H(Y|X)H(Y∣X) 就是随机变量XXX 没有涉及到的随机比变量YYY的部分的不确定度的量度。这就是“在XXX 已知之后YYY 的剩余不确定度的量”,于是第一个等式的右边就可以读作“YYY的不确定度,减去在 X 已知之后 Y 的剩余不确定度的量”,此式等价于“移除知道 X 后 Y 的不确定度的量”。这证实了互信息的直观意义为知道其中一个变量提供的另一个的信息量(即不确定度的减少量)。

https://zh.wikipedia.org/zh-hans/互信息