Machine Learning
  • Introduction
  • 机器学习
    • 前言
      • 符号表
    • 监督式学习
      • 感知机
        • 感知机模型
        • 感知机学习算法
        • 算法python实现
      • Logistic回归
        • Logistic分布
        • Logistic回归模型
        • 算法python实现
      • 线性回归
        • 线性回归模型
        • 算法python实现
      • K近邻法
        • k近邻模型
        • kd树方法
        • kd树python实现
        • knn实例
      • 朴素贝叶斯法
        • 模型和原理
        • 参数估计
        • 算法和实现
      • 决策树
        • 模型与学习
        • 特征选择
        • 生成算法和剪枝
        • python实现
      • 支持向量机
    • 神经网络
      • 神经元模型和感知机
      • 神经网络
      • 神经网络的矩阵表达
      • 反向传播算法
        • 算法证明
        • 算法代码
        • 基于矩阵的计算
      • 改进神经网络的学习方法
        • 交叉熵代价函数
        • softmax
        • regularization
        • 权重初始化
      • 卷积神经网络
        • 基本介绍
    • 数学基础
      • 线性代数
        • 特征值和特征向量
      • 概率统计
        • 随机变量的特征
        • 样本统计量
        • 先验后验概率
      • 微积分
        • 向量内积
        • 方向导数和梯度
        • 梯度下降法
      • 信息论
        • 熵
        • 相对熵和交叉熵
        • 条件熵
        • 互信息
Powered by GitBook
On this page
  1. 机器学习
  2. 监督式学习
  3. Logistic回归

Logistic分布

PreviousLogistic回归NextLogistic回归模型

Last updated 7 years ago

Logistic分布的定义:设XXX是连续随机变量,XXX服从Logistic分布是指具有下列分布函数和密度函数:

F(x)=P(X⩽x)=11+e−(x−μ)/γF(x)=P(X\leqslant x)= \dfrac{1}{1+e^{-(x-\mu)/\gamma}}F(x)=P(X⩽x)=1+e−(x−μ)/γ1​
f(x)=F′(X⩽x)=e−(x−μ)/γγ(1+e−(x−μ)/γ)2f(x)=F'(X\leqslant x)= \dfrac{e^{-(x-\mu)/\gamma}}{\gamma(1+e^{-(x-\mu)/\gamma})^2}f(x)=F′(X⩽x)=γ(1+e−(x−μ)/γ)2e−(x−μ)/γ​

其中,μ\muμ为位置参数,γ>0\gamma \gt0γ>0为形状参数。

概率分布函数如下(μ\muμ是位置函数,改变它可以平移图形):

概率密度函数:

分布函数属于Logistic函数,是一条S形曲线(sigmoid curve)。该曲线以点(μ,12)(\mu, \dfrac{1}{2})(μ,21​)为中心对称,即满足

F(−x+μ)−12=−F(x+μ)+12F(-x+\mu)- \dfrac{1}{2} = -F(x+\mu) + \dfrac{1}{2}F(−x+μ)−21​=−F(x+μ)+21​

曲线在中心附近增长速度比较快,两端增长速度比较慢。形状参数γ\gammaγ的值越小,曲线在中心附近增长的越快。