查询字段 检索词
  华南农业大学学报  2020, Vol. 41 Issue (6): 67-74  DOI: 10.7671/j.issn.1001-411X.202006058

引用本文  

朱圣, 邓继忠, 张亚莉, 等. 基于无人机低空遥感的水稻田间杂草分布图研究[J]. 华南农业大学学报, 2020, 41(6): 67-74.
ZHU Sheng, DENG Jizhong, ZHANG Yali, et al. Study on distribution map of weeds in rice field based on UAV remote sensing[J]. Journal of South China Agricultural University, 2020, 41(6): 67-74.

基金项目

广东省现代农业产业共性关键技术研发创新团队项目(2019KJ133);广东省重点领域研发计划(2019B020221001);广东省科技计划(2018A050506073)

通信作者

邓继忠(1963—),男,教授,博士,E-mail: jz-deng@scau.edu.cn

作者简介

朱 圣(1994—),男,硕士,E-mail: 735733246@qq.com

文章历史

收稿日期:2020-06-30
网络首发时间:2020-09-24 14:48:42
基于无人机低空遥感的水稻田间杂草分布图研究
朱圣, 邓继忠, 张亚莉, 杨畅, 严智威, 谢尧庆    
国家精准农业航空施药技术国际联合研究中心/华南农业大学 工程学院,广东 广州 510642
摘要:【目的】 获取水稻田的低空遥感图像并分析得到杂草分布图,为田间杂草精准施药提供参考。【方法】 使用支持向量机(SVM)、K最近邻算法(KNN)和AdaBoost 3种机器学习算法,对经过颜色特征提取和主成分分析(PCA)降维后的无人机拍摄的水稻田杂草可见光图像进行分类比较;引入一种无需提取特征和降维、可自动获取图像特征的卷积神经网络(CNN),对水稻田杂草图像进行分类以提升分类精度。【结果】 SVM、KNN和AdaBoost对测试集的测试运行时间分别为0.500 4、2.209 2和0.411 1 s,分类精度分别达到89.75%、85.58%和90.25%,CNN对图像的分类精度达到92.41%,高于上述3种机器学习算法的分类精度。机器学习算法及CNN均能有效识别水稻和杂草,获取杂草的分布信息,生成水稻田间的杂草分布图。【结论】 CNN对水稻田杂草的分类精度最高,生成的水稻田杂草分布图效果最好。
关键词无人机遥感    稻田杂草    机器学习算法    卷积神经网络    精准施药    
Study on distribution map of weeds in rice field based on UAV remote sensing
ZHU Sheng, DENG Jizhong, ZHANG Yali, YANG Chang, YAN Zhiwei, XIE Yaoqing    
National Center for International Collaboration Research on Precision Agricultural Aviation Pesticides Spraying Technology/College of Engineering, South China Agricultural University, Guangzhou 510642, China
Abstract: 【Objective】 To obtain and analyze the low altitude remote sensing image of rice field, acquire the weed distribution map, and provide a reference for the precious pesticide application of weeds in the field.【Method】 Three machine learning algorithms including support vector machine (SVM), K-nearest neighbor (KNN) and AdaBoost were used to classify and compare the weed visible light images in rice field captured by UAV after color feature extraction and principal component analysis (PCA) dimensionality reduction. A convolutional neural network (CNN) which can automatically obtain the image features without feature extraction and dimensionality reduction was introduced to classify the weed images and improve the classification accuracy.【Result】 The run time of test set based on SVM, KNN and AdaBoost were 0.500 4, 2.209 2 and 0.411 1 s, and the classification accuracies were 89.75%, 85.58% and 90.25% respectively; The classification accuracy of image based on CNN was 92.41%, which was higher than those of three machine learning algorithms. All machine learning algorithms and CNN could effectively recognize rice and weed, acquire weed distribution information, and generate distribution map of weed in rice field.【Conclusion】 The classification accuracy of weed in rice field based on CNN is the highest, and the weed distribution map generated by CNN is the best.
Key words: UAV remote sensing    paddy weed    machine learning algorithm    convolutional neural network    precious pesticide application    

化学除草是目前最有效且广泛采用的水稻田杂草管控方式[1],常用的方法是对整个作业区域均匀和覆盖式的喷洒除草[2],以无序的“点状”或“片状”形式存在的杂草会导致农药喷洒过量。“精准农业航空”中基于遥感分析的精准施药为解决农药过量施用问题提供了一种新思路[3-4]。精准施药的首要任务是获取水稻田的遥感图像并分析其中的杂草分布状况,得到网格形状的杂草分布图。水稻田图像中水稻及杂草颜色相近,若依据图像识别其差异,则要求遥感图像具有较高的空间分辨率。近年来无人机低空遥感因操作简单、节省人力物力并可获得高分辨率影像的优势为农作物分类调查提供了新思路[5],相比传统卫星影像,具有获取方式更灵活、时效高等特点,在农情监测、精准农业等领域得到越来越多的应用[6-7]。利用无人机采集水稻田的遥感图像并进行农情分析在国内外已有类似的研究。Barrero等[8]使用神经网络(Neural network)对水稻杂草航空图像进行检测,检测准确率高达99%;Barrero等[9]根据无人机拍摄的图像提出一种融合低分辨率多光谱和高分辨率RGB图像的方法检测水稻田杂草,采用神经网络对RGB、RGB+NGRDI和融合RGB-NGRDI 共3种图像进行检测,结果表明基于融合图像的杂草检测精度最高,在70%~85%之间;Uto等[10]使用无人机获取水稻的高光谱数据,通过频繁地监测照明水平和叶绿素指数获得水稻田的生长信息;马明洋[11]使用无人机获取稻田中水稻冠层高光谱影像信息,对光谱特征信息进行分类,其中使用二代小波分解算法分类精度最高,达到90.36%;洪雪[12]利用无人机获得农田中水稻的光谱数据,使用BP神经网络建模对水稻产量进行预测;Ma等[13]使用SegNet、FCN和U-Net 共3种语义分割模型对水稻田中的水稻杂草图像进行像素级的分割,结果表明,SegNet算法识别效果最好,达到92.7%的准确率。相关研究主要集中在对水稻田杂草的识别检测上,获取水稻田中杂草分布信息并生成水稻田间杂草分布图的研究相对较少。本文拟采用大疆精灵4无人机及其携带的可见光相机采集遥感图像,以水稻杂草为识别目标,对比支持向量机(Support vehicle machine, SVM)、K最近邻算法(K-nearest neighbor, KNN)、AdaBoost共3种机器学习方法和卷积神经网络(Convolutional neural network,CNN)方法对水稻和杂草的分类效果,获取水稻田间杂草分布信息,生成分类效果最好的水稻田间杂草分布图,为后续植保无人机进行精准施药提供决策依据。

1 材料与方法 1.1 供试材料

研究区域位于华南农业大学增城试验基地(中国广东省广州市,坐标23°14′N、113°38′E,基准WGS84)(图1)。本研究于2017年10月2日对试验基地中某一块稻田进行RGB图像采集,数据采集设备为大疆精灵4无人机,结合地面站软件DJI GS PRO进行航线规划。经实地验证,研究区域的杂草主要有千金子和莎草。

图 1 试验数据采集点 Fig. 1 Location of test data collection

无人机飞行高度依次设置为6、8、10 m。横、纵向重叠率分别为60%和50%。本次试验采集图像120幅,每幅图像的分辨率为4 000像素×3 000像素,空间分辨率为0.3 cm。采集到的图像如图2a所示。根据人眼对水稻和杂草的识别效果以及需要对采集的图像使用有监督学习作用的方法进行标注,试验选择飞行高度为6 m。在采集到的无人机遥感图像中,所有物体被分为3个类别:水稻、杂草以及其他(包括水泥地、土壤、地面等)。本文分别使用绿色表示水稻,红色表示杂草,灰色代表其他,对每一张图像中3个类别进行基于像素级别的颜色标注,如图2b所示。

图 2 无人机拍摄的原图和对应的标注图 Fig. 2 Original image taken by UAV and corresponding annotated image

图 3 3种类别样本的RGB像素平均值 Fig. 3 RGB pixel means of three category samples

根据田间地面的实际验证,在1个0.3 m×0.3 m的网格中有95%以上概率可确认只有1个类别。考虑有限的计算机资源以及图像的分辨率即像素尺寸为4 000×3 000,空间分辨率为0.3 cm,根据计算,0.3 m×0.3 m的地面区域对应图像的像素尺寸为100×100,因此本文将每幅4 000像素×3 000像素的原图像与标记图像分别切割成1 200块像素大小为100×100的小网格。对原图像切割成的小网格图片与标记图切割成的小网格图片进行效果比对,在标记图小网格图库中,按照单一颜色或者某种颜色超过95%的选取规则与原图像库中的小图片进行对应,按照随机性以及训练集与测试集5∶1的原则选出6 000幅小网格图片作为训练集,选取1 200幅小网格图片作为测试集。

1.2 数据预处理 1.2.1 基于机器学习分类的图像预处理

颜色特征是基于图像像素提取的,具有旋转、尺度和平移不变性等优点[14],是人眼获取的最为有效且明显的信息之一。它的获取及计算较简单,常用作特征向量训练机器学习模型。本试验拟对小样本提取RGB三通道颜色的最大值、最小值与平均值。从原图小网格图库中随机选取3种类别小图片各3 200幅用于统计RGB像素平均值(图3),不同类别样本提取出的颜色特征有一些差异。

本文的图像属于单视图数据,数据维数巨大。尽管高维数据含有更加丰富的信息,但对于分类、聚类等任务,要付出巨大的计算和存储代价,而且在测试集数量一定时,特征维数的增加将使样本统计特性变得困难,降低分类器的泛化能力[15]。本文使用对单视图数据有较好泛化性能的主成分分析(Principal component analysis,PCA)对图像数据进行降维。PCA是Karl Pearson[16]在1901年提出的概念,1933年Hotelling[17]完善其数学基础。本研究原始图像的特征向量有30 000维存在噪声和冗余信息,会对分类器造成干扰,因此采用PCA降维来消除这种影响[18]。经过如图4所示的PCA计算流程,为保留90%有效信息并降到50维,剔除无效的信息,保留有用的特征信息,形成特征向量集。结合提取到的颜色特征分别送入SVM、KNN和AdaBoost 3种分类器中进行识别分类。

图 4 主成分分析算法计算流程图 Fig. 4 Calculation process of principal component analysis algorithm
1.2.2 基于CNN分类的图像预处理

CNN可以自动学习输入图像中的特征,并对学习到的特征进行自动分类,网络直接输出该图像的类别概率,是一种端到端的图像识别方法[19]。CNN通过卷积运算完成特征提取。图像卷积运算是通过设定各种特征提取滤波器矩阵,然后使用该卷积核在原图像矩阵(图像实际是像素值构成的矩阵)“滑动”,实现卷积运算。因此,基于CNN对图像的分类无需做预处理,可直接进行模型的训练。本文的技术路线如图5所示。对原始图像进行标注、切割后使用3种机器学习算法和CNN对小图片进行分类,并形成水稻田中的杂草分布图。

图 5 利用3种机器学习算法和CNN生成水稻田杂草分布图的技术路线图 Fig. 5 Technical routes of using three kinds of machine learning algorithms and CNN to generate distribution map of paddy weeds
1.3 分类方法介绍

常用的监督分类方法有最大似然[20]、神经网络[21-22]、SVM[23-24],常用的非监督分类方法有K−均值、模糊C−均值(Fuzzy C-mean,FCM)[25-26]等。获取的图像数据经标注后使得本文的分类方法成为监督分类范畴。

1.3.1 SVM分类模型

SVM是一种可分析数据、识别模型和分类的监督学习模型[27-28]。SVM算法在于寻找一个超平面,该超平面可将训练集中的数据分开,且与类域边界边沿垂直于该超平面方向的距离最大,从而达到最大的泛化能力[29]。对于任意数据集 $\mathbb T $ 和超平面 ${{\omega}} {{x + {{b}} = 0}}$ ,定义超平面关于样本点 $({{{x}}_{{i}}},\ {{{y}}_{{i}}})$ 的几何间距(ri)为:

${\gamma _{{i}}}{\rm{ = }}{{{y}}_{{i}}}\Bigg(\frac{{{\omega}} }{{\parallel {{\omega}} \parallel }} x_i{\rm{ + }}\frac{{{b}}}{{\parallel {{\omega}} \parallel }}\Bigg),$ (1)

式中, ${{\omega}}$ b分别是超平面的权重向量与截距向量。关于全部样本点的几何间隔的最小值 $(\gamma) $ 为:

$\gamma {\rm{ = min}}{\gamma _i}(i = 1,2\cdots ,n),$ (2)

即向量到超平面的距离。

以上都是针对数据线性可分推导的,本文的图像数据属于线性不可分,必须确定惩罚系数c和径向基函数g,再选择更优的核函数将数据映射到更高维空间,有效解决数据低维和高维空间映射造成计算复杂度增加的问题[30]。常用的核函数有线性核、多项式核、径向基内核和Sigmoid核。选择核函数时要考虑数据的特点和数据量,本次SVM模型使用的是Sigmoid核,通过使用不同的核函数和参数cg寻优,Sigmoid核的公式如下所示:

$K(x,y) = \tanh (\mathop {{{a}}x}\nolimits^{\rm T} y + b),$ (3)

式中,ab为人工设置的参数,a为正实数,b为非负实数。

1.3.2 KNN分类模型

KNN是机器学习领域最常用的分类算法,也是一种回归的非参数统计方法[31]。优点是可用于非线性分类,适用于本文的遥感数据且对异常数据不敏感,缺点是需要大量的存储空间,计算耗时。分类的思路是假设一个样本在特征空间中的k个最近邻的样本大多数属于某个类别,则将该样本也划分成这个类别。本文使用KNN算法建模时,关于距离的度量方法使用的是欧几里得距离公式,具体如下:

$D = \sqrt {\sum\limits_{i = 1}^n {{{({x_i} - {y_i})}^2}} } ,$ (4)

式中, ${x_i}$ 代表待测样本, ${y_i}$ 代表已知样本,n代表样本数。

1.3.3 AdaBoost分类模型

本文选取AdaBoost算法构建小尺度的水稻田杂草图像分类模型。AdaBoost算法是由Freund等[32]提出的目前使用和研究最多的集成算法,该算法的思想是将若干个分类能力较弱的分类器按照一定的方式混合成为分类能力很强的强分类器[33-34]。AdaBoost算法计算流程如下:

1)构造图像特征数据训练集为G={ $({x_1}, {y_2}), ({x_2},{y_2})\cdots,({x_n},{y_n})$ },xn为图像的特征数据集,yn为标签集。

2)初始化每个图像特征数据的权值D1={ ${w_1},{w_2}\cdots,{w_n}$ }, ${w_n}$ =1/n ${w_n}$ 为第n个图像特征数据对应的初始权值。

3)迭代k次(k=1, 2···, K),使用决策树算法对有权值分布的训练集训练出弱分类器。

1.3.4 CNN分类模型

作为一种深度学习方法,CNN已成为当前图像理解领域的研究热点[35],其权值共享网络结构在网络输入为多维图像时尤为方便,图像可直接作为网络输入,避免传统识别算法中复杂的特征提取和数据重建过程[36]。本文采用CNN对采集到的水稻田杂草图像进行分类,CNN结构的隐含层一般包含卷积层、采样层、池化层和全连接层等几类常见的层结构,本文使用的卷积层结构如图6所示。

图 6 卷积神经网络结构 Fig. 6 Convolutional neural network structure

卷积层中的卷积核包含权重系数,用来自动提取图像的特征。本文所使用的CNN结构是在Ubuntu16.04系统下,框架为tensorflow 1.5,编程语言为Python,训练集与测试集的图片分别为6 000与1 200幅。考虑到有限的计算机资源,卷积层只设置5个卷积核,每个卷积核大小为1,利用ReLU函数进行激活。池化层池化窗口大小为5×5,步长为2×2。将提取到的三维特征转化成一维向量,全连接层对提取到的特征进行分类。学习率设置为10−5,最后选用AdamOptimizer优化网络。

2 结果与分析 2.1 算法的分类结果与分析

对相同的数据集经过颜色特征的提取和PCA降维后,将形成的特征向量集分别送入到SVM、KNN以及AdaBoost分类器中进行分类。对分类器的参数进行多次的调优试验。

试验结果表明,SVM算法对3种作物类别(水稻、杂草、其他)的综合分类精度为89.75%。图7展示的是KNN算法分类精度与k值的关系,当k取14时,KNN综合识别精度最高,为85.58%。AdaBoost分类器对水稻杂草图像的综合分类精度为90.25%,为3种机器学习算法中最高。3种模型的综合识别精度、混淆矩阵精度和运行时间如表1所示。

图 7 KNN算法k值与分类精度的关系 Fig. 7 Relationship between k value and classification accuracy in KNN algorithm

表 1 3个模型的混淆矩阵精度、运行时间和综合识别精度 Table 1 Confusion matrix accuracy, run time and integrated recognition accuracy of three models

SVM、KNN和AdaBoost模型对测试集的测试运行时间分别为0.500 4、2.209 2和0.411 1 s。AdaBoost在分类精度和识别效率上都优于其他2种模型。基于CNN试验的模型是深度学习框架TensorFlow的GitHub代码库下的源码,通过对卷积层、池化层以及全连接层做了一些修改(图6)以适应本试验的数据,模型对整个数据集的综合分类精度是92.41%。图8是CNN训练的Loss值与训练步数的关系图。

图 8 卷积神经网络训练步数与Loss值之间的关系图 Fig. 8 Relationship between train step and Loss value in convolutional neural network
2.2 生成水稻田间杂草分布图

分别使用这4种训练生成的模型对测试集小样本进行分类,将小样本分类识别结果返回到相应的原始图像中进行标记,4种模型下水稻田杂草分布图与原图、标注图的比较如图9所示。

图 9 基于4种算法生成的水稻田杂草分布图与原图、标注图的比较 Fig. 9 Comparisons of distribution maps of paddy weeds generated based on four algorithms with original image and annotated image

由以上的试验结果效果图以及得到的分类精度可以得到,基于CNN对水稻杂草的分类效果要优于传统机器学习算法对水稻杂草的分类效果。机器学习算法及CNN均能够有效获取水稻田中杂草分布信息并生成水稻田间杂草分布图,有利于植保无人机对稻田中的杂草进行精准施药。

3 讨论与结论

本文使用无人机采集水稻杂草RGB可见光图像,将数据切割成像素尺寸为100×100的小网格图像,对数据集进行颜色特征提取和降维后送入SVM、KNN和AdaBoost三种机器学习算法模型中进行分类。对比试验了3种机器学习方法和1种无需提取图像特征和降维的CNN分类方法。从分类的试验结果看,在3种机器学习算法中,不论是分类准确率还是分类效率,最优的分类器是AdaBoost,其综合识别精度为90.25%;在基于CNN的分类中,由于CNN结构可以自动挖掘数据的特征,简化人工提取环节,更具有兼容性和适用性,对不同的水稻杂草图像泛化能力更好,对水稻杂草图像的综合识别精度可以达到92.41%。试验结果还表明,针对无人机拍摄的遥感图像,机器学习算法及CNN能够有效识别出水稻和杂草,获取杂草的分布信息,生成水稻田间的杂草分布图,为后续植保无人机的精准施药提供依据。结合本文的研究和所得结果分析,本研究还存在以下待改进之处:1)本文使用的机器学习算法只提取图像的颜色特征作为模型训练的特征向量集进行训练,可以在后续研究中提取多个图像特征如纹理、形状等特征进行特征融合,结合机器学习算法并在此基础上改善算法模型,形成新算法以改善分类准确率;2)后续考虑采集多时期、多田地的水稻杂草图像,基于这些不同的水稻杂草图像改善模型,提高模型泛化能力;3)本文是进行水稻杂草的图像分类,切割成100像素×100像素小网格后,个别网格中避免不了水稻和杂草共存的情况,下一步可以考虑基于像素级别的分类,提高分类的精度。

参考文献
[1]
姚中统. 新型助剂对玉米田除草剂增效作用及增效机制的研究[D]. 哈尔滨: 东北农业大学, 2019. (0)
[2]
LOPEZ-GRANADOS F, TORRES-SANCHEZ J, SERRANO-PEREZ A, et al. Early season weed mapping in sunflower using UAV technology: Variability of herbicide treatment maps against weed thresholds[J]. Precis Agric, 2016, 17(2): 183-199. DOI:10.1007/s11119-015-9415-8 (0)
[3]
LAN Y, THOMSON S J, HUANG Y, et al. Current status and future directions of precision aerial application for site-specific crop management in the USA[J]. Comput Electron Agr, 2010, 74(1): 34-38. DOI:10.1016/j.compag.2010.07.001 (0)
[4]
LAN Y, CHEN S. Current status and trends of plant protection UAV and its spraying technology in China[J]. Int J Precis Agric Aviat, 2018, 1(1): 1-9. DOI:10.33440/j.ijpaa.20180101.0002 (0)
[5]
刘斌. 基于无人机遥感影像的农作物分类研究[D]. 北京: 中国农业科学院, 2019. (0)
[6]
邓继忠, 任高生, 兰玉彬, 等. 基于可见光波段的无人机超低空遥感图像处理[J]. 华南农业大学学报, 2016, 37(6): 16-22. (0)
[7]
PATHAK R, BARZIN R, BORA G C. Data-driven precision agricultural applications using field sensors and unmanned aerial vehicle (UAVs)[J]. Int J Precis Agric Aviat, 2018, 1(1): 19-23. (0)
[8]
BARRERO O, ROJAS D, GONZALEZ C, et al. Weed detection in rice fields using aerial images and neural networks[C]//ALTUVE M. Symposium of image, signal processing, and artificial vision. New York: IEEE, 2016. (0)
[9]
BARRERO O, PERDOMO S A. RGB and multispectral UAV image fusion for Gramineae weed detection in rice fields[J]. Precis Agric, 2018, 19(5): 809-822. DOI:10.1007/s11119-017-9558-x (0)
[10]
UTO K, SEKI H, SAITO G, et al. Characterization of rice paddies by a UAV-mounted miniature hyperspectral sensor system[J]. IEEE J-STARS, 2013, 6(2): 851-860. (0)
[11]
马明洋. 基于无人机低空遥感的东北粳稻叶绿素含量估测方法研究[D]. 沈阳: 沈阳农业大学, 2018. (0)
[12]
洪雪. 基于水稻高光谱遥感数据的植被指数产量模型研究[D]. 沈阳: 沈阳农业大学, 2017. (0)
[13]
MA X, DENG X, QI L, et al. Fully convolutional network for rice seedling and weed image segmentation at the seedling stage in paddy fields[J]. PLoS One, 2019, 14(4): e0215676. DOI:10.1371/journal.pone.0215676 (0)
[14]
邓向武, 齐龙, 马旭, 等. 基于多特征融合和深度置信网络的稻田苗期杂草识别[J]. 农业工程学报, 2018, 34(14): 165-172. (0)
[15]
陈晓红. 数据降维的广义相关分析研究[D]. 南京: 南京航空航天大学, 2011. (0)
[16]
KARL PEARSON F R S. LIII: On lines and planes of closest fit to systems of points in space[J]. Philosophical Magazine Series 1, 1901, 11(2): 559-572. (0)
[17]
HOTELLING H. Analysis of a complex of statistical variables into principal components[J]. J Educ Psychol, 1933, 24(6): 417-441. DOI:10.1037/h0071325 (0)
[18]
王小龙, 邓继忠, 黄华盛, 等. 基于高光谱数据的棉田虫害鉴别研究[J]. 华南农业大学学报, 2019, 40(3): 97-103. (0)
[19]
曾伟辉. 面向农作物叶片病害鲁棒性识别的深度卷积神经网络研究[D]. 合肥: 中国科学技术大学, 2018. (0)
[20]
SUN J, YANG J, ZHANG C, et al. Automatic remotely sensed image classification in a grid environment based on the maximum likelihood method[J]. Math Comput Model, 2013, 58(3/4): 573-581. (0)
[21]
MILLER D M, KAMINSKY E J, RANA S. Neural network classification of remote-sensing data[J]. Comput Geosci, 1995, 21(3): 377-386. DOI:10.1016/0098-3004(94)00082-6 (0)
[22]
ZENG J, GUO H F, HU Y M. Artificial neural network model for identifying taxi gross emitter from remote sensing data of vehicle emission[J]. J Environ Sci, 2007, 19(4): 427-431. DOI:10.1016/S1001-0742(07)60071-0 (0)
[23]
BROWN M, LEWIS H G, GUNN S. Linear spectral mixture models and support vector machines for remote sensing[J]. IEEE T Geosci Remote, 2000, 38(5): 2346-2360. DOI:10.1109/36.868891 (0)
[24]
HUANG C, DAVIS L S, TOWNSHEND J R G. An assessment of support vector machines for land cover classification[J]. Int J Remote Sens, 2002, 23(4): 725-749. DOI:10.1080/01431160110040323 (0)
[25]
IRVIN B J, VENTURA S J, SLATER B K. Fuzzy and isodata classification of landform elements from digital terrain data in Pleasant Valley, Wisconsin[J]. Geoderma, 1997, 77(2/3/4): 137-154. (0)
[26]
PAL S K, GHOSH A, SHANKAR B U. Segmentation of remotely sensed images with fuzzy thresholding, and quantitative evaluation[J]. Int J Remote Sens, 2000, 21(11): 2269-2300. DOI:10.1080/01431160050029567 (0)
[27]
王璨, 李志伟. 利用融合高度与单目图像特征的支持向量机模型识别杂草[J]. 农业工程学报, 2016, 32(15): 165-174. (0)
[28]
唐美丽, 张劲松, 李璐, 等. 基于GPU的SVM参数优化并行算法[J]. 江苏大学学报(自然科学版), 2017, 38(5): 576-581. (0)
[29]
CORTES C, VAPNIK V N. Support-vector networks[J]. 1995. doi: 10.1023/A: 1022627411411. (0)
[30]
李春雨, 葛啸, 金燕婷, 等. 基于近红外光谱技术的蔬菜农药残留种类检测[J]. 农业工程, 2019, 9(6): 33-39. (0)
[31]
黄欣, 莫海淼, 赵志刚. 基于自适应烟花算法和k近邻算法的特征选择算法[J]. 计算机应用与软件, 2020, 37(5): 268-274. (0)
[32]
FREUND Y, SCHAPIRE R E. A decision-theoretic generalization of on-line learning and an application to boosting[J]. J Comput Syst Sci, 1997, 55(1): 119-139. DOI:10.1006/jcss.1997.1504 (0)
[33]
杨国欣. 基于Adaboost算法和视觉显著性的羊只目标检测与计数方法研究[D]. 杨凌: 西北农林科技大学, 2019. (0)
[34]
付忠良. 关于AdaBoost有效性的分析[J]. 计算机研究与发展, 2008, 45(10): 1747-1755. (0)
[35]
LIANG X, XU C, SHEN X, et al. Human parsing with contextualized convolutional neural network[J]. IEEE T Pattern Anal, 2017, 39(1): 115-127. DOI:10.1109/TPAMI.2016.2537339 (0)
[36]
卢伟, 胡海阳, 王家鹏, 等. 基于卷积神经网络面部图像识别的拖拉机驾驶员疲劳检测[J]. 农业工程学报, 2018, 34(7): 192-199. (0)