k近邻(k-Nearest Neighbor,简称kNN)学习是一种常用的监督式学习方法,其工作机制非常简单:
给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个训练样本,然后基于这k个“邻居”的信息来进行预测。通常,在分类任务中可使用“投票法”,即选择这k个样本中出现最多的类别标记作为预测结果;在回归任务中可以使用“平均法”,即将这k个样本的实值输出标记的平均值作为预测结果;还可以基于距离远近进行加权平均或加权投票,距离越近的样本权重越大。
k近邻有个明显的不同之处:它似乎没有显示的训练过程。事实上,它是“懒惰学习”(lazy learning)的著名代表,此类学习技术在训练阶段仅仅是把样本保存起来,训练时间开销为0,待收到测试样本后再进行处理,这种称为“急切学习”。
pic source: https://helloacm.com/a-short-introduction-to-k-nearest-neighbors-algorithm/
1.距离度量
2. k近邻算法
输入:训练集
k近邻法最简单的办法就是线性扫描(linear scan),这时要计算输入实例和每一个训练实例的距离,当训练集很大时,非常耗时,这种方法不可行。
特征空间中两个实例点的距离是两个实例点的相似度的反映。k近邻模型的特征空间一般是n维实数向量空间Rn。使用的距离是欧式距离,但也可以使其他距离,比如更一般的Lp距离(Lp distance),或Minkowski距离。
设特征空间X是n维实数向量空间Rn,x(i),x(j)∈X,x=(x0,x1,x2,...,xn)T,x(i),x(j)的Lp距离定义为:
Lp(x(i),x(j))=(k=1∑n∣xk(i)−xk(j)∣p)p1 这里p⩾1。当p=2时,称为欧式距离(Euclidean distance),即
L2(x(i),x(j))=(k=1∑n∣xk(i)−xk(j)∣2)21 当p=1时,称为曼哈顿距离(Manhanttan distance),即
L1(x(i),x(j))=k=1∑n∣xk(i)−xk(j)∣ 当p=∞时,它是各个坐标距离的最大值,即:
L∞(x(i),x(j))=kmax∣xk(i)−xk(j)∣ 下图给出了p取不同值时,与原点的Lp距离为1(Lp=1)的图形。
T={(x(1),y(1)),(x(2),y(2)),...,(x(m),y(m))} 其中x(i)∈X=Rn为实例的特征向量,y(i)∈Y={c1,c2,...,ct}为实例的类别,i=1,2,...,m。某个实例特征向量x。
1)根据给定的距离度量,在训练集T中找出与x最邻近的k个点,涵盖这k个点的邻域记作Nk(x);
2)在Nk(x)中根据分类决策规则(如多数表决)决定x的类别:
y=argcjmaxxi∈Nk(x)∑I(yi=cj) 其中i=1,2,...,m,j=1,2,...,t,I为指示函数,即当yi=cj时为1,否则为0。
k近邻的特殊情况是k=1的情形,称为最近邻算法。对于输入的实例点x,最近邻算法将训练数据集中与x最近的类作为x的类。
k值的选择会对k近邻法的结果产生重大影响。
如果选择较小的k值,“学习”的估计误差(estmation error)会增大,预测的结果会对近邻的节点比较敏感。
如果寻则较大的k值,“学习”的近似误差(approximation error)会增大,与输入实例较远的训练实例也会对预测起作用,使预测发生错误。
实际中,k一般取一个比较小的数值,并采用交叉验证法来选取最优的k值。
下面介绍kd树(kd tree)方法。