全文总字数:10801字
1. 研究目的与意义(文献综述)
1研究背景与意义(1)图像分类图像分类,根据各自在图像信息中所反映的不同特征,把不同类别的目标区分开来的图像处理方法。它利用计算机对图像进行定量分析,把图像或图像中的每个像元或区域划归为若干个类别中的某一种,以代替人的视觉判读所谓图像分类问题,就是已有固定的分类标签集合,然后对于输入的图像,从分类标签集合中找出一个分类标签,最后把分类标签分配给该输入图像。虽然看起来挺简单的,但这可是计算机视觉领域的核心问题之一,并且有着各种各样的实际应用。在后面的课程中,我们可以看到计算机视觉领域中很多看似不同的问题(比如物体检测和分割),都可以被归结为图像分类问题。(2)支持向量机支持向量机(Support Vector Machine, SVM)是一类按监督学习(supervised learning)方式对数据进行二元分类(binary classification)的广义线性分类器(generalized linear classifier),其决策边界是对学习样本求解的最大边距超平面(maximum-margin hyperplane)。SVM是由模式识别中广义肖像算法(generalized portrait algorithm)发展而来的分类器,其早期工作来自前苏联学者Vladimir N. Vapnik和Alexander Y. Lerner在1963年发表的研究。1964年,Vapnik和Alexey Y. Chervonenkis对广义肖像算法进行了进一步讨论并建立了硬边距的线性SVM。此后在二十世纪70-80年代,随着模式识别中最大边距决策边界的理论研究、基于松弛变量的规划问题求解技术的出现,和VC维(Vapnik–Chervonenkis,VC dimension)的提出,SVM被逐步理论化并成为统计学习理论的重要部分。1992年,Bernhard E. Boser、Isabelle M. Guyon和Vapnik通过核方法首次得到了非线性SVM。1995年,Corinna Cortes和Vapnik提出了软边距的非线性SVM并将其应用于手写数字识别问题,这份研究在发表后得到了广泛的关注和引用,为其后SVM在各领域的应用奠定了基础。SVM使用铰链损失函数(hinge loss)计算经验风险(empirical risk)并在求解系统中加入了正则化项以优化结构风险(structural risk),是一个具有稀疏性和稳健性的分类器。SVM可以通过核方法(kernel method)进行非线性分类,是常见的核学习(kernel learning)方法之一。SVM被提出于1963年,在二十世纪90年代后得到快速发展并衍生出一系列改进和扩展算法,包括多分类SVM、最小二乘SVM(Least-Square SVM, LS-SVM)、支持向量回归(Support Vector Regression, SVR)、支持向量聚类(support vector clustering)、半监督SVM(semi-supervised SVM, S3VM)等,在人像识别(face recognition)、文本分类(text categorization)等模式识别(pattern recognition)问题中有广泛应用。Image classification, according to the different characteristics reflected in the image information, distinguishes the different categories of objects from the image processing methods. It uses computer to analyze image quantitatively and classifies every pixel or region of image or image into one of several categories instead of human visual interpretation.The so-called image classification problem is that there is a fixed set of classification labels, and then for the input image, a classification label is found from the set of classification labels, and finally the classification label is assigned to the input image. Although it seems quite simple, it is one of the core problems in the field of computer vision and has a variety of practical applications. In the following courses, we can see that many seemingly different problems in the field of computer vision (such as object detection and segmentation) can be reduced to image classification.Support Vector Machine (SVM) is a kind of generalized linear classifier which classifies data by supervised learning. Its decision boundary is the maximum margin hyperplane for solving learning samples.SVM is a classifier developed from the generalized image algorithm in pattern recognition. Its early work came from the research published in 1963 by former Soviet scholar Vladimir N. Vapnik and Alexander Y. Lerner. In 1964, Vapnik and Alexey Y. Chervonenkis further discussed the generalized image algorithm and established a linear SVM with hard margins. Since then, in the 1970s and 1980s, with the emergence of the theoretical study of the maximum margin decision boundary in pattern recognition, the planning problem solving technology based on relaxed variables, and the proposal of VC dimension, SVM has gradually been theorized and become an important part of statistical learning theory. In 1992, Bernhard E. Boser, Isabelle M. Guyon and Vapnik obtained nonlinear SVM for the first time by kernel method. In 1995, Corinna Cortes and Vapnik proposed the soft margin nonlinear SVM and applied it to handwritten numeral recognition. This research has been widely concerned and cited after its publication, which laid a foundation for the application of SVM in various fields.SVM is a sparse and robust classifier, which uses hinge loss function to calculate empirical risk and adds regularization term to the solution system to optimize structural risk. SVM can be classified nonlinearly by kernel method, which is one of the common kernel learning methods.SVM was proposed in 1963, and developed rapidly after 1990s. A series of improved and extended algorithms, including multi-classification SVM, least squares SVM, support vector regression, support vector clustering, semi-supervised SVM, have been widely used in pattern recognition such as image recognition and text classification.2研究现状SVM通过平面将空间中的实例划分到不同的类别,从而实现分类。这里的空间包括二维空间,三维空间,一直到高维空间,具体的维数等于实例的特征数量,如果我们待分类的图片是32*32*3(长宽分别是32个像素,RGB3个颜色通道)维的,那么图片所处的空间就是3072维的空间。在这个高维空间,我们通过由权重向量W和偏置项b确定的一个(实际上是一组)超平面来将图片进行分类。这里每一个平面都将整个高维空间划分成两部分,平面的一侧是某一类图片,另一侧是这个类别之外的其他图片。比如红色的平面一侧是汽车这个类别,另一侧是非汽车类别。每一个类别都对应一个平面,这些平面互相之间不存在关联,利用SVM模型进行分类的目的就是确定这样一组平面,使得同一类尽可能划分在该类对应的平面的一侧,其他类尽可能在另一侧,而且两种类别离平面的距离越大越好(平面尽可能把两类分的更开),这是SVM模型的思路。
支持向量机理论自20世纪90年代提出以来,在各种应用领域表现出较好的推广能力,得到了广泛应用,并在模式识别领域已经得到成功应用。在模式识别领域的第1个应用是手写数字的识别,此后逐渐应用于人脸识别与人脸检测以及文本分类等各种领域。支持向量机在生物信息领域,如蛋白质的分类和DNA分析等,取得了较好结果。此外,支持向量机还应用于时间序列分析、回归分析、聚类分析、动态图像的人脸跟踪、信号处理、语音识别、图像分类和控制系统等诸多领域。
2. 研究的基本内容与方案
3研究目标通过svm算法来实现对于一组图片的分类。
4研究内容(1)数据获取 比如摄像机或视频头的输出,通过采样获得数据,也可以是一般的统计数据集,其中的数据以向量或矩阵形式表示,或者是已经准备好的待检测的图片(2)训练图片特征提取和选择 特征提取是指从对象本身获取各种对于分类有用的度量或属性。
特征选择是指如何从描述对象的多种特征中找出那些对于分类最有效的特征。
3. 研究计划与安排
第1周—第3周 搜集资料,撰写开题报告;第4周—第5周 论文开题;第6周—第12周 撰写论文初稿;第12周—第15周 修改论文;第16周 论文答辩。
4. 参考文献(不低于12篇)
[1]李红丽,许春香,马耀锋.基于多核学习svm的图像分类识别算法[j].现代电子技术 2018 第6期 p50-52,56
[2]陈永健,汪西莉.fcm预选取样本的半监督svm图像分类方法[j].计算机应用 2014 第1期 p260-264
[3]孟金龙,丁超洋,周慧,吕爽. 基于svm的图像分类算法研究[j].数字技术与应用 2017 第10期 p123-12
课题毕业论文、开题报告、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。