vlambda博客
学习文章列表

图像识别之KNN算法的理解与应用

KNN是最经典的机器学习算法之一。该算法既可以用于数据分类,也可以用于数据回归预测,其核心思路是在训练样本中寻找距离最接近待分类样本的K个样本。然后,如果目的是分类,则统计这K个样本中的各个类别数量,数量最多的类别即认为是待分类样本的类别;如果目的是回归预测,则计算这K个样本的平均值作为预测值。

图像识别,本质上也是数据分类,也即把每一张图像归类,因此KNN算法可以应用于图像识别。本文首先讲解KNN算法的原理,接着讲解Opencv中的KNN算法模块,然后再使用Opencv中的KNN算法模块对手写数字图像进行识别。

KNN算法主要包含以下几个要素:

1. 训练样本。训练样本就是预先准备好的数据集,该数据集必须包含所有可能的数据类别,而且数据集中的每个数据都有一个唯一的标签,用来标识该数据所属的类别。比如,待分类的图像有可能属于的类别包括鸟、狗、马、飞机、班车这5种类别,给5种类别依次编号0、1、2、3、4,那么训练样本必须包含这5种类别的图像,且训练样本中每一张图像都有一个范围在0~4之间的类别标签。

2. 待分类样本。也就是待分类的数据,比如一张图像,把该图像输入KNN算法之中,KNN算法对其进行分类,然后输出类别标签。

3. 样本距离。通常每一个样本都是一维向量的形式(二维、三维、多维数据都可以转换为一维向量)。衡量一维向量之间的距离,通常有欧式距离,余弦距离、汉明距离等,其中欧式距离又是最常用的距离度量方法。

假设样本A和样本B:

A=[a0 a1 a2 ... an]

B=[b0 b1 b2 ... bn]

那么样本A与样本B的欧式距离为:

4. K值。K值决定寻找训练样本中最接近待分类样本的样本个数,比如K值取5,那么对于每一个待分类样本,都从训练样本中寻找5个与其距离最接近的样本,然后统计这5个样本中各个类别的数量,数量最多的类别则认为是待分类样本的类别。K值没有固定的取值,通常在一开始取5~10,然后多尝试几次,根据识别的正确率来调整K值。

举一个简单的例子来说明KNN的分类思路,如下图所示,样本0为待分类样本,其可能的分类为矩形、圆形、菱形,取K=6,然后在所有训练样本中寻找与样本0最接近的6个样本:样本1、样本2、样本3、样本4、样本5、样本6。然后对这6个样本进行分类统计(每个训练样本是有标签的,所以知道其类别):3个矩形、2个菱形、1个圆形。矩形的数量最多,因此判定样本0为矩形。

图像识别之KNN算法的理解与应用

讲完原理,下面我们开始讲Opencv3.4.1中KNN算法模块的应用。Opencv3.4.1中已经实现了该算法,并封装成类,我们只需要调用类的相关接口,并且把输入参数传入接口即可得到分类结果。调用接口的步骤如下:

1. 创建KNN类并设置参数。

  const int K = 3; //取K值为3  //创建KNN类  cv::Ptr<cv::ml::KNearest> knn = cv::ml::KNearest::create(); knn->setDefaultK(K); //设置KNN类的K值 knn->setIsClassifier(true); //设置KNN用于分类  knn->setAlgorithmType(cv::ml::KNearest::BRUTE_FORCE); //设置寻找距离最近的K个样本的方式为遍历所有训练样本,也即暴力破解的方式

2. 输入训练数据及其标签:

Mat traindata; //训练数据的矩阵Mat trainlabel; //训练数据的标签
traindata.push_back(srcimage);  //srcimage为Mat类型的1行n列的一维矩阵,将该矩阵保存到训练矩阵中trainlabel.push_back(i);      //i为srcimage的标签,同时将i保存到标签矩阵中
traindata.convertTo(traindata, CV_32F); //重要:训练矩阵必须是浮点型数据

3. 将训练数据与标签输入KNN模块中进行训练:

knn->train(traindata, cv::ml::ROW_SAMPLE, trainlabel);

4. 训练之后,开始对待分类图像进行分类:

Mat result;//testdata为待分类图像,被转换为1行n列的浮点型数据//response为最终得到的分类标签int  response = knn->findNearest(testdata, K, result); 

下面,我们将Opencv的KNN模块应用于手写数字识别。在Opencv3.4.1的samples/data目录有一张1000*2000的手写数字图像,该图像包含了5000个20*20的小图像块,每个小图像块就是一个手写数字,如下图所示:

图像识别之KNN算法的理解与应用

首先,我们写个程序把上图分割成5000个20*20的图像块。把相同的数字保存到同名文件夹中,比如数字0的小图像块保存到文件夹0中、数字1的小图像块保存到文件夹1中、数字2的小图像块保存到文件夹2中。

图像识别之KNN算法的理解与应用

分割图像块的代码如下:

void read_digital_img(void){ char ad[128] = { 0 }; int filename = 0, filenum = 0; Mat img = imread("digits.png"); Mat gray; cvtColor(img, gray, CV_BGR2GRAY); int b = 20; int m = gray.rows / b; //原图为1000*2000 int n = gray.cols / b; //裁剪为5000个20*20的小图块
for (int i = 0; i < m; i++) { int offsetRow = i*b; //行上的偏移量    if (i % 5 == 0 && i != 0)   //原图中每5行存储相同数字,因此过了5行要递增文件名 {      filename++;   //递增文件名 filenum = 0; //清零文件计数器 }
for (int j = 0; j < n; j++) { int offsetCol = j*b; //列上的偏移量 sprintf_s(ad, "%d/%d.jpg", filename, filenum++); //截取20*20的小块 Mat tmp; gray(Range(offsetRow, offsetRow + b), Range(offsetCol, offsetCol + b)).copyTo(tmp);      imwrite(ad, tmp);   //将对应的数字图像块保存到对应名字的文件夹中 } }}

运行上述代码之后,从0~9的文件夹都保存有对应数字的小图像块啦~不同数字的小图像块如下图所示。这时我们有0~9这10个文件夹,每个文件夹都有对应数字的500张小图像块,比如文件夹0中有500张不同手写风格的0数字图像。

图像识别之KNN算法的理解与应用

下面我们使用每个文件夹下前400张图像作为训练图像,对KNN模型进行训练,然后使用该KNN模型对每个文件夹下后100张图像进行分类,并统计分类结果的准确率。

上代码:

void KNN_test(void){ char ad[128] = { 0 }; int testnum = 0, truenum = 0;  const int K = 3;   //设置K值为3 cv::Ptr<cv::ml::KNearest> knn = cv::ml::KNearest::create(); //创建KNN类 knn->setDefaultK(K); knn->setIsClassifier(true); //设置KNN用于分类  knn->setAlgorithmType(cv::ml::KNearest::BRUTE_FORCE); //设置寻找距离最近的K个样本的方式为遍历所有训练样本,也即暴力破解的方式 
Mat traindata, trainlabel;
for (int i = 0; i < 10; i++) { for (int j = 0; j < 400; j++) { sprintf_s(ad, "%d/%d.jpg", i, j); Mat srcimage = imread(ad);      //把二维数据转换为一维数据 srcimage = srcimage.reshape(1, 1); //Mat Mat::reshape(int cn, int rows = 0),cn表示通道数,为0则通道不变,rows表示矩阵行数 traindata.push_back(srcimage); //srcimage为Mat类型的1行n列的一维矩阵,将该矩阵保存到训练矩阵中 trainlabel.push_back(i); //i为srcimage的标签,同时将i保存到标签矩阵中 } }
traindata.convertTo(traindata, CV_32F); //重要:训练矩阵必须是浮点型数据 knn->train(traindata, cv::ml::ROW_SAMPLE, trainlabel); //导入训练数据和标签
  for (int i = 0; i < 10; i++)   //标签 { for (int j = 400; j < 500; j++) { testnum++; //统计总的分类次数 sprintf_s(ad, "%d/%d.jpg", i, j); Mat testdata = imread(ad); testdata = testdata.reshape(1, 1); //将二维数据转换成一维数据 testdata.convertTo(testdata, CV_32F); //将数据转换成浮点数据
Mat result; int response = knn->findNearest(testdata, K, result); //寻找K个最邻近样本,并统计K个样本的分类数量,返回数量最多的分类的标签 if (response == i) //如果得到的分类标签与真实标签一致,则分类正确 { truenum++;      } } } cout << "测试总数" << testnum << endl; cout << "正确分类数" << truenum << endl; cout << "准确率:" << (float)truenum / testnum * 100 << "%" << endl;}

运行上述代码,得到结果如下,可以看到,KNN算法对手写数字图像的识别(分类)的准确率还是比较高的。

由于手写数字图像包含的特征比较简单,因此KNN的识别准确率很高。实际上,对于一些复杂的图像,KNN的识别准确率是很低的。在下一篇文章中,我们将尝试使用KNN算法来识别更复杂的图像,并想办法提高识别的准确率,敬请期待!