朴素贝叶斯(native Bayes)法是基于贝叶斯定理与特征条件独立假设的分类方法。
对于给定的训练集,首先基于特征条件独立假设学习输入/输出的联合概率分布;然后基于此模型,对于给定的输入x,利用贝叶斯定理求出后验概率最大的输出y。
1. 基本方法
假设输入空间X⊆Rn为n维向量的集合,输出空间为类标记集合Y={c1,c2,...,cK}。输入为特征向量x∈X,输出为类标记y∈Y。X是定义在输入空间X上的随机向量,Y是定义在输出空间Y上的随机变量。P(X,Y)是X和Y的联合概率分布。训练数据集T={(x(1),y(1)),(x(2),y(2)),...,(x(m),y(m))}是由P(X,Y)独立同分布产生的,其中每个x=(x1,x2,...,xn)是n维向量。
朴素贝叶斯法通过对给定的输入x,通过学习到的模型计算后验概率分布P(Y=ck∣X=x),然后将后验概率最大的类作为x的输出。计算后验概率:
P(Y=ck∣X=x)=P(X=x)P(Y=ck,X=x)=k=1∑KP(X=x∣Y=ck)P(Y=ck)P(X=x∣Y=ck)P(Y=ck) 其中k=1,2,...,K,可以看到分母对于所有的类标记ck都是相同的,则可以得到输出
y=argckmaxP(X=x∣Y=ck)P(Y=ck) 其中
P(Y=ck), k=1,2,...,K 是先验概率分布。
是条件概率分布(似然函数)。假定条件概率分布中的每个特征是条件独立的,则
这一假设使得朴素贝叶斯法变得简单,但是会牺牲一定的分类准确率。
于是代入,可以得到:
2. 模型的原理
首先,定义0-1损失函数:
转换成求最大:
这样便是在0-1损失函数的情况下,期望风险最小化准则得到了后验概率最大化准则,即朴素贝叶斯法的原理。