Machine Learning
  • Introduction
  • 机器学习
    • 前言
      • 符号表
    • 监督式学习
      • 感知机
        • 感知机模型
        • 感知机学习算法
        • 算法python实现
      • Logistic回归
        • Logistic分布
        • Logistic回归模型
        • 算法python实现
      • 线性回归
        • 线性回归模型
        • 算法python实现
      • K近邻法
        • k近邻模型
        • kd树方法
        • kd树python实现
        • knn实例
      • 朴素贝叶斯法
        • 模型和原理
        • 参数估计
        • 算法和实现
      • 决策树
        • 模型与学习
        • 特征选择
        • 生成算法和剪枝
        • python实现
      • 支持向量机
    • 神经网络
      • 神经元模型和感知机
      • 神经网络
      • 神经网络的矩阵表达
      • 反向传播算法
        • 算法证明
        • 算法代码
        • 基于矩阵的计算
      • 改进神经网络的学习方法
        • 交叉熵代价函数
        • softmax
        • regularization
        • 权重初始化
      • 卷积神经网络
        • 基本介绍
    • 数学基础
      • 线性代数
        • 特征值和特征向量
      • 概率统计
        • 随机变量的特征
        • 样本统计量
        • 先验后验概率
      • 微积分
        • 向量内积
        • 方向导数和梯度
        • 梯度下降法
      • 信息论
        • 熵
        • 相对熵和交叉熵
        • 条件熵
        • 互信息
Powered by GitBook
On this page
  1. 机器学习
  2. 数学基础
  3. 微积分

向量内积

Previous微积分Next方向导数和梯度

Last updated 6 years ago

在数学中,点积(Dot Product)又称数量积,是一个接受两个等长度的数字序列(通常是向量坐标),然后返回单个数字的代数运算。在欧几里德几何中,两个笛卡尔坐标向量的点积常称为内积(Inner Product)。

从代数的角度看,先对两个数字序列中的每组对应元素求积,再对所有积求和,结果即为点积。

从几何角度看,点积则是两个向量的长度与它们的夹角的余弦的积。

代数定义:

两个向量 a⃗=[a1,a2,...,an]\vec{a}=[a_1, a_2, ..., a_n]a=[a1​,a2​,...,an​] 和 b⃗=[b1,b2,...,bn]\vec{b}=[b_1, b_2, ..., b_n]b=[b1​,b2​,...,bn​] 的点积定义为:

a⃗⋅b⃗=∑i=1naibi=a1b1+a2b2+...+anbn\vec{a} \cdot \vec{b} = \displaystyle\sum_{i=1}^n a_ib_i= a_1b_1+a_2b_2+...+ a_nb_na⋅b=i=1∑n​ai​bi​=a1​b1​+a2​b2​+...+an​bn​

几何定义:

在欧几里德空间中,点积可以直观的定义为:

a⃗⋅b⃗=∣a∣∣b∣cosθ\vec{a} \cdot \vec{b} =|{a}||{b} | \mathrm{cos}\thetaa⋅b=∣a∣∣b∣cosθ

这里∣x⃗∣|\vec{x}|∣x∣表示向量x⃗\vec{x}x的模的长度,θ\thetaθ表示两个向量的角度。

当两个向量互相垂直时点积总是为零。因为cos90=0\mathrm{cos} 90 = 0cos90=0。当两个向量方向相同时,角度为000,内积为正的最大;当两个向量方向相反时,角度为180180180,内积为负的最大。

向量的内积可以理解为向量A在向量B上的投影跟向量B的长度的乘积。

若a{a}a和b{b}b都是单位向量(长度为1),它们的点积就是它们的夹角的余弦。那么给定两个向量,它们之间的夹角可以通过下列公式得到:

cosθ=a⃗⋅b⃗∣a∣∣b∣\mathrm{cos} \theta =\frac{ \vec{a} \cdot \vec{b} }{ |{a}| |{b}|}cosθ=∣a∣∣b∣a⋅b​

source:

https://zh.wikipedia.org/wiki/点积