vlambda博客
学习文章列表

徒手打造一个朴素贝叶斯分类器


开篇

正如其名,"朴素贝叶斯"原理"朴素",实现简单,是一种常用的机器学习算法。

为何“朴素”?如何训练?如何分类?如何实现?别急,咱们慢慢道来~

概率统计回忆录

朴素贝叶斯也是贝叶斯方法的一种,提起贝叶斯,学过概率统计的你一定听说过条件概率公式,全概率公式和贝叶斯公式吧,忘记了也没关系,我们先来快速过一遍。

条件概率公式:

全概率公式:

贝叶斯公式:

可以发现,贝叶斯公式其实就是由条件概率公式和全概率公式推导的,贝叶斯公式的分母是一个全概率公式,分子是一个条件概率公式。

后续的推导将会用到上面的公式。

朴素贝叶斯的训练(学习)方法

朴素贝叶斯在使用训练数据进行“学习”时,其实是在学习数据的生成机制,具体点,是在学习特征 与标签 的联合概率分布

再进一步解释:根据条件概率公式, ,所以朴素贝叶斯要学习联合概率分布 ,就需要学习 以及 ,而这两项完全可以从训练集中学到,于是整个朴素贝叶斯的学习之路就“几乎”被打通啦

之所以用“几乎”,是因为以上过程还存在一个问题:

中, 是类别标签,假设共 类; 是特征,假设共 个特征 ,且 的可能取值共 个, ,那么对于每一个类别标签 的不同组合总数达到了 ,于是 总共需要计算 个参数。当每个特征的不同取值较多时,计算开销会特别大,这在实际应用中是不可行的。

那应该怎么办呢?

可以假设 是条件独立的!具体来说就是 满足下面的公式:

此时,对于每一个类别标签 ,都对应需要计算 次(第 个特征共有 个不同取值),

那么 个类别标签与 个特征的全部不同组合数为 ,也就是说 总共需要计算 个参数。

当每个特征的不同取值较多时, 将会远小于 ,这样的计算量是可以接受的。

朴素贝叶斯正式基于这一条件独立性假设!

由于这个假设在现实生活中几乎不能被满足,因此说该算法是“朴素”的,这也正是朴素贝叶斯的得名由来。

这样,朴素贝叶斯的学习之路彻底被打通啦!

朴素贝叶斯分类器

上一节介绍了朴素贝叶斯如何利用训练数据进行学习,当学习完成之后,如何做分类呢?让我们来推导一下吧。

在进行分类时,对于给定的样本特征 ,朴素贝叶斯分类器会将所有可能的类别作为备选答案,然后分别计算在给定特征的条件下,样本被判定为某类别的概率,最后比较一下这些概率的大小,最大概率对应的的类别就是朴素贝叶斯分类器最终的分类结果。

以上所计算的概率,被称为后验概率,用贝叶斯公式描述如下:

前面我们已经利用条件独立性得到

将它代入刚刚推导的 中,得到

在上式中,分母对于每一个 都是相同的,因此可以不考虑分母,于是朴素贝叶斯分类器最终的分类结果是 中最大值对应的类别。


极大似然法估计参数

我们已经讲解了朴素贝叶斯如何利用训练集进行学习(训练),以及如何用学习(训练)好的模型做分类。

但有一个问题还没有解决:我们只是明确了“学习意味着估计 ,并且这两项完全可以从训练集中学到”,但是具体如何“学习”(估计这些参数)呢?

这里使用极大似然法进行学习(参数的估计)。

被称为先验概率,它的极大似然估计为:

其中 为样本个数。

设第 个特征所有可能的取值集合为 ,则 的极大似然估计为:

其中, 为指示函数特征总数为 ,第 个特征共 个不同取值,总共有 个不同类别。



案例实战

训练集如下,希望学习一个朴素贝叶斯分类器,对新的样本 进行分类。

根据上面的推导,我们需要计算

总类别数; 总特征数

待分类的样本 的类别就是集合中最大值对应的类别

使用训练集进行训练,需要计算 个先验概率和 个条件概率:

这样就学习完成并得到了一个朴素贝叶斯分类器,接下来开始做分类了。

对于给定的新样本 ,计算:

因为后者较大,所以朴素贝叶斯将会把新样本 归到 类中。


Python实现朴素贝叶斯分类器

本小节将用Python实现一个朴素贝叶斯分类器。

我们依然使用上一节栗子中的数据(后台回复"bayes_data"可获取数据)来测试分类器,先读取进来看一下:

data=pd.read_csv('bayes_data.csv')
print(data)

输出:

    fea1 fea2  label
0      1    S     -1
1      1    M     -1
2      1    M      1
3      1    S      1
4      1    S     -1
5      2    S     -1
6      2    M     -1
7      2    M      1
8      2    L      1
9      2    L      1
10     3    L      1
11     3    M      1
12     3    M      1
13     3    L      1
14     3    L     -1

现在来实现朴素贝叶斯分类器

class Bayes():
  pass

整体的思路是:

对于待分类的样本

计算先验概率

计算条件概率

根据上面二式计算,并取其中最大值对应的 作为样本 的类别。

所以我们可以先定义两个方法,分别计算先验概率和条件概率

    #计算先验概率
    def cal_prior_prob(self,class_list):
       pass
    #计算给定类别的条件下,每个特征取不同值的概率
    def cal_cond_prob(self,dataset):
       pass

cal_prior_prob比较容易实现,只需对类别列统计一下不同取值的个数,然后除以总样本数。注意到“统计某列不同取值的个数”这一操作在后面会被多次使用,因此先把它写成一个单独的方法:

    #统计某一列不同取值及其对应个数
    def value_count(self,lis):
        dic={}#统计lis中不同取值个数
        for i in lis:
            if i in dic.keys():
                dic[i]+=1
            else:
                dic[i]=1
        res=[]
        for i in dic.keys():
            res.append((i,dic[i]))
        return res#二元组组成的列表

然后就可以实现cal_prior_prob了:

    #计算先验概率
    def cal_prior_prob(self,class_list):
        res=self.value_count(class_list)#统计类别列中不同取值及其对应个数
        prior_prob=[]
        for item in res:
            prior_prob.append((item[0],item[1]/len(class_list)))
        return prior_prob

cal_cond_prob的实现稍微有些复杂。由于需要计算类别标签取不同值的条件下一系列的概率,因此需要按照类别标签的不同将数据集做划分,我们先来实现数据集划分函数:

    #获取不同类别标签下对应的子集
    def split_dataset(self,dataset,fea_index,value):
        subset=[]#存储子集
        n_samples=len(dataset.iloc[:,0])#样本量
        
        #遍历数据集中每一个样本
        for i in range(n_samples):
            sample=list(dataset.iloc[i,:])
            if sample[fea_index]==value:
                subset.append(sample)
        subset=pd.DataFrame(subset)
        subset.columns=dataset.columns#设置子集列名 
        return subset

代码逻辑很清晰,不必多言。

还有个问题:应该如何存储这一堆计算得到的条件概率呢?

这里,我选择了嵌套的字典。具体的结构是这样的:

{1: {'fea1': {}, 'fea2': {}}, -1: {'fea1': {}, 'fea2': {}}}

最外层的1和-1代表两类标签;fea1和fea2代表2个特征,fea1对应的值(value)将会存储"第一个特征不同取值的个数/总样本数",即条件概率,fea2同理。

先搭建好这个框架,之后直接往对应位置填充数据即可。

有了以上铺垫,现在来实现cal_cond_prob

    #计算给定类别的条件下,每个特征取不同值的概率,并用字典存起来
    def cal_cond_prob(self,dataset):
        n_features=len(dataset.iloc[0,:])-1#总共有几个特征
        #print(n_features)#2
        class_list=dataset.iloc[:,-1]#全部类别
        class_list_value=set(class_list)#类别的不同取值
        dic={key:{} for key in class_list_value}#存储全部概率计算的结果,类似打表的方法
        #先搭建好框架,后续直接往对应位置填充数据即可
        for k in dic:
            for i in range(n_features):
                dic[k]['fea{}'.format(i+1)]={}
        #print(dic)#{1: {'fea1': {}, 'fea2': {}}, -1: {'fea1': {}, 'fea2': {}}}
   
        for label_value in class_list_value:#对于每一个类别label_value
            subset=self.split_dataset(dataset,-1,label_value)#获取当前label_value对应的子集
            #print(subset)#ok
            for current_fea_index in range(n_features):#对于当前类别下的每一个特征
                lis=subset.iloc[:,current_fea_index]#当前特征列
                #print(lis)#ok
                res=self.value_count(lis)#统计当前特征列中不同取值及其对应个数
                #print(res)#ok
                #当前特征不同取值占总数的比例,此即我们要求的条件概率
                for item in res:
                    #计算比例,并写入字典中
                    dic[label_value]['fea{}'.format(current_fea_index+1)][item[0]]=item[1]/len(lis)
        #print(dic)#ok
        return dic

该方法最后返回的dic就存储了全部的条件概率。

完成以上任务后,可以使用我们的数据集测试一下:

if __name__ == "__main__":
    dataset=pd.read_csv('bayes_data.csv')
    class_list=dataset.iloc[:,-1]
    bayes=Bayes()

    #计算先验概率和条件概率
    prior_prob=bayes.cal_prior_prob(class_list)#[(-1, 0.4), (1, 0.6)]
    cond_prob=bayes.cal_cond_prob(dataset)

    print('先验概率:{}\n\n条件概率:{}'.format(prior_prob,cond_prob))

输出:

先验概率:[(-1, 0.4), (1, 0.6)]

条件概率:{1: {'fea1': {1: 0.2222222222222222, 2: 0.3333333333333333, 3: 0.4444444444444444}, 'fea2': {'M': 0.4444444444444444, 'S': 0.1111111111111111, 'L': 0.4444444444444444}}, -1: {'fea1': {1: 0.5, 2: 0.3333333333333333, 3: 0.16666666666666666}, 'fea2': {'S': 0.5, 'M': 0.3333333333333333, 'L': 0.16666666666666666}}}

从输出结果可以得到先验概率为:

条件概率就没那么直观了,不过我们可以用在线工具https://www.bejson.com/explore/index_new/ 格式化一下:

格式化结构图

将之前手算得到的的分数化成小数,与以上输出结果做个比较,你会发现,两者结果是一样的。这说明以上代码没有问题,测试通过。

有了这些用字典存储的条件概率,我们就可以用到哪个取哪个了。

现在“原料”俱齐,是时候实现最终的分类方法啦:

    def judge(self,x,all_labels,prior_prob,cond_prob):
        #尝试每一个类别
        p=[]
        for label,prob in prior_prob:
            temp=prob
            for i in range(len(x)):
                temp*=cond_prob[label]['fea{}'.format(i+1)][x[i]]
            p.append((label,temp))
        #print(p)
        return sorted(p,key=lambda x:x[1])[-1][0]

上述方法传入在本地计算好的先验概率、条件概率(字典格式)以及全部类别标签的不同取值,计算,最后排序并返回最大值对应的类别标签。

至此,整个朴素贝叶斯分类器就完成了。

试试看 会不会和我们之前手推的一样被归到-1类,代码如下

if __name__ == "__main__":
    dataset=pd.read_csv('bayes_data.csv')
    class_list=dataset.iloc[:,-1]
    bayes=Bayes()
    
    #计算先验概率和条件概率
    prior_prob=bayes.cal_prior_prob(class_list)#[(-1, 0.4), (1, 0.6)]
    cond_prob=bayes.cal_cond_prob(dataset)
    all_labels=[i[0for i in prior_prob]
    x=(2,'S')
    result=bayes.judge(x,all_labels,prior_prob,cond_prob)
    print('分类结果为:',result)

输出:

分类结果为: -1

嗯,完全一致。

完整代码如下:

import pandas as pd

class Bayes():
    
    #统计某一列不同取值及其对应个数
    def value_count(self,lis):
        dic={}#统计lis中不同取值个数
        for i in lis:
            if i in dic.keys():
                dic[i]+=1
            else:
                dic[i]=1
        res=[]
        for i in dic.keys():
            res.append((i,dic[i]))
        return res#二元组组成的列表
    
    #获取不同类别标签下对应的子集
    def split_dataset(self,dataset,fea_index,value):
        subset=[]#存储子集
        n_samples=len(dataset.iloc[:,0])#样本量
        
        #遍历数据集中每一个样本
        for i in range(n_samples):
            sample=list(dataset.iloc[i,:])
            if sample[fea_index]==value:
                subset.append(sample)
        subset=pd.DataFrame(subset)
        subset.columns=dataset.columns#设置子集列名 
        return subset

        
    #计算先验概率
    def cal_prior_prob(self,class_list):
        res=self.value_count(class_list)#统计类别列中不同取值及其对应个数
        prior_prob=[]
        for item in res:
            prior_prob.append((item[0],item[1]/len(class_list)))
        return prior_prob
        
    #计算给定类别的条件下,每个特征取不同值的概率,并用字典存起来
    def cal_cond_prob(self,dataset):
        n_features=len(dataset.iloc[0,:])-1#总共有几个特征
        #print(n_features)#2
        class_list=dataset.iloc[:,-1]#全部类别
        class_list_value=set(class_list)#类别的不同取值
        dic={key:{} for key in class_list_value}#存储全部概率计算的结果,类似打表的方法
        #先搭建好框架,后续直接往对应位置填充数据即可
        for k in dic:
            for i in range(n_features):
                dic[k]['fea{}'.format(i+1)]={}
        #print(dic)#{1: {'fea1': {}, 'fea2': {}}, -1: {'fea1': {}, 'fea2': {}}}
   
        for label_value in class_list_value:#对于每一个类别label_value
            subset=self.split_dataset(dataset,-1,label_value)#获取当前label_value对应的子集
            #print(subset)#ok
            for current_fea_index in range(n_features):#对于当前类别下的每一个特征
                lis=subset.iloc[:,current_fea_index]#当前特征列
                #print(lis)#ok
                res=self.value_count(lis)#统计当前特征列中不同取值及其对应个数
                #print(res)#ok
                #当前特征不同取值占总数的比例,此即我们要求的条件概率
                for item in res:
                    #计算比例,并写入字典中
                    dic[label_value]['fea{}'.format(current_fea_index+1)][item[0]]=item[1]/len(lis)
        #print(dic)#ok
        return dic

    def judge(self,x,all_labels,prior_prob,cond_prob):
        #尝试每一个类别
        p=[]
        for label,prob in prior_prob:
            temp=prob
            for i in range(len(x)):
                temp*=cond_prob[label]['fea{}'.format(i+1)][x[i]]
            p.append((label,temp))
        #print(p)
        return sorted(p,key=lambda x:x[1])[-1][0]

            
if __name__ == "__main__":
    dataset=pd.read_csv('bayes_data.csv')
    class_list=dataset.iloc[:,-1]
    bayes=Bayes()
    #print(bayes.value_count(class_list))#[(-1, 6), (1, 9)]

    #计算先验概率和条件概率
    prior_prob=bayes.cal_prior_prob(class_list)#[(-1, 0.4), (1, 0.6)]
    cond_prob=bayes.cal_cond_prob(dataset)
    all_labels=[i[0for i in prior_prob]

    #print('先验概率:{}\n\n条件概率:{}'.format(prior_prob,cond_prob))

    x=(2,'S')

    result=bayes.judge(x,all_labels,prior_prob,cond_prob)
    print('分类结果为:',result)

总结一下

本文讲解了朴素贝叶斯的由来,学习过程以及分类器的原理,并结合案例加以说明,最后用Python实现了一个基于极大似然估计的朴素贝叶斯分类器。

参考:

  • [1][统计学习方法]

最最后,原创不易,在看一下好不好

对了,南极Python交流群已经成立,欢迎入群学习交流(划水)

推 荐 阅 读