2. 山东理工大学 农业工程与食品科学学院, 山东 淄博 255000
2. School of Agricultural Engineering and Food Science, Shandong University of Technology, Zibo 255000, China
随着农业机械化水平的不断提高,越来越多的新技术应用于农业。针对农作物病虫害防治,利用农业机器人实现自主作业,可以解决从事农业人口比例逐年降低、劳动者工作强度大等问题,提高作业效率和质量,降低生产成本[1-2]。自动导航是农业机器人实现自主作业重要的一步,目前应用于农业的自动导航技术主要有RTK-GPS导航、机器视觉导航、地磁导航和无线电导航等,但GPS导航容易受到农田作物遮挡影响,信号不稳定,而多传感器融合导航具有实时性好、价格低廉、适用范围广等优点,因此相机与激光雷达融合导航已经逐步成为国内外研究热点。
Søgaard等[3]通过计算图像中玉米的重心代替分割步骤,从而减少了图像处理的耗时;杨洋等[24]利用动态感兴趣区域去除图像中干扰部分,采用最小二乘法直线拟合获取了玉米导航线。常昕等[4]以激光雷达点云数据修正跟踪,解决图像中受光照、阴影和背景干扰的问题。胡丹丹等[5]以玉米收割机器人为载体,采用机器视觉获取玉米植株离散点特征,基于Hough变换进行直线拟合得到导航基准线。Marchant等[6]通过植物的颜色特征和相机标定对作物行进行Hough变换处理,提高了检测效率。梁习卉子等[7]对区域内各色域分量权值进行调整,强调绿色像素而淡化红色和蓝色像素,去除枯草、阴影对检测结果造成的干扰。
目前农业机器人在田间行走主要依靠单一传感器识别,利用相机获取图像数据,将植株绿色像素投影曲线峰值特性,通过算法拟合峰值点可以获得导航基准线。俞毓锋等[8]结合激光雷达的深度信息和图像的颜色纹理信息,构建在时序帧间的特征点匹配关系,终将定位问题转化为特征点对的加权重投影误差优化问题。但实际上存在光照和地面起伏等因素,在信息融合过程中容易出现信息不匹配问题,降低识别准确率。宋宇等[9]提出特征点处植株绿色特征列像素累加值大于左右相邻像素累加值,通过设定峰值点距离阈值来获取准确根茎定位点,最终利用拟合定位点来获取导航线。但实际上玉米田中普遍存在缺苗、一穴多株现象,并且相机拍摄角度或焦距成像不同,在设定距离阈值进行筛选根茎定位点时会出现错误,降低拟合导航线的准确率。冯娟等[10]利用特征点附近像素值梯度变化程度,通过对形态学处理后的图像进行扫描获取土壤与根茎交界线。该方法在根茎附近有杂草干扰的情况时,会在相邻根茎定位点之间产生伪特征点,对导航线拟合产生严重影响。
本文针对单一传感器无法有效识别导航线问题,提出一种基于离散因子的多传感器特征检测和数据融合方法,离散因子是由激光雷达和相机采集到的孤立的信息点集,因此构建多传感器目标识别的相对一致性和加权一致性函数,根据多传感器特征检测的权重以及相关的一致性函数,建立多传感器特征识别的数据融合支持度数学模型以获取特征点。最后利用正确的玉米特征中心点进行拟合,可以获得导航基准线,为农业机械在玉米田间行走提供导航基准。
1 数据采集和预处理 1.1 图像采集与特征提取视觉系统采集到的3~5叶期玉米植株图片为RGB彩色图像(图1),图像分辨率为640像素×480像素。测试环境为阴天,环境中有石子、树枝及行人等干扰因素,用
|
图 1 玉米植株原始图像 Fig. 1 Original image of corn plants |
|
图 2 二值化处理后的玉米植株图像 Fig. 2 Image of corn plants after binary processing |
采用Velodyne Lidar VLP-16PUCK的激光雷达对视觉采集的同一目标进行数据扫描。激光雷达扫描的数据以点云形式存储,每个扫描点包含该点的三维坐标和反射率等信息。但由于复杂环境存在干扰以及设备存在精度的缺陷,原始点云数据存在伪特征点。针对原始数据中的伪特征点,采用基于半径滤波去噪的方法进行剔除,即设置规定半径范围内点云的最小数量,当给定点周围点云数量大于给定值时保留该点,反之则剔除该点,依序迭代可获得最密集的点,从而去除原始数据中的伪特征点,处理后的点云俯视图如图3所示。
|
图 3 玉米植株点云数据预处理 Fig. 3 Preprocessing of point cloud data of corn plants |
预处理后的玉米植株点云数据依然存在模糊、分散等问题,因此进行部分聚类操作,导出最大密度相连的样本集合,即为最终聚类的一个类别,从而加强玉米植株的特征点云数据。采用DBSCAN[18-19]聚类算法进行点云数据处理,通过将紧密相连的样本划为一类,这样就得到一个聚类类别,通过将所有各组紧密相连的样本划为各个不同的类别,则可以获得最终所有聚类类别的结果。经过DBSCAN聚类操作处理的点云数据如图4所示,玉米植株的特征被划分得更加明显,解决了点云数据杂乱、噪音多等问题。
|
图 4 DBSCAN聚类玉米植株点云数据 Fig. 4 DBSCAN clustering of point cloud data of corn plants |
基于相机和激光雷达的融合导航识别算法是将预处理后点云数据的反射率信息加入到预处理后图像数据中,降低光照不足、遮挡等干扰对可通行区域提取的影响,提高识别精度,算法流程如图5所示。
|
图 5 玉米植株特征识别流程图 Fig. 5 Flow chart of corn plant feature recognition |
为达到数据融合的目的,首先要将相机和激光雷达数据进行空间匹配,因此需要对相机和激光雷达进行联合标定[20-21],即得到两者之间的数据转换关系,找到同一时刻激光雷达点云数据对应图像中的像素点。
建立激光雷达坐标系
|
图 6 坐标转换示意图 Fig. 6 Schematic diagram of coordinate conversion |
传感器融合的关键就是将物体在激光雷达下的坐标转化为像素坐标,从而达到激光点云与图像融合的目的。因此,假设空间有一点P在激光雷达坐标系下的坐标为
1) 从激光雷达坐标系到相机的坐标系转化为:
| $ \left[ {\begin{array}{*{20}{c}} {{X_{\rm{C}}}} \\ {{Y_{\rm{C}}}} \\ {{Z_{\rm{C}}}} \end{array}} \right] = {\boldsymbol{R}}\left[ {\begin{array}{*{20}{c}} {{X_{\rm{L}}}} \\ {{Y_{\rm{L}}}} \\ {{Z_{\rm{L}}}} \end{array}} \right] + \left[ {\begin{array}{*{20}{c}} {{t_1}} \\ {{t_2}} \\ {{t_3}} \end{array}} \right] ,$ | (1) |
式中,
| $ \begin{split} &{\boldsymbol{R}} = {{\boldsymbol{R}}_x}{{\boldsymbol{R}}_y}{{\boldsymbol{R}}_z} = \left[ {\begin{array}{*{20}{c}} 1&0&0 \\ 0&{\cos {\theta _x}}&{ - \sin {\theta _x}} \\ 0&{\sin {\theta _x}}&{\cos {\theta _x}} \end{array}} \right]\\ &\quad\left[ {\begin{array}{*{20}{c}} {\cos {\theta _y}}&0&{\sin {\theta _y}} \\ 0&1&0 \\ {\sin {\theta _y}}&0&{\cos {\theta _y}} \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {\cos {\theta _z}}&{ - \sin {\theta _z}}&0 \\ {\sin {\theta _z}}&{\cos {\theta _z}}&0 \\ 0&0&1 \end{array}} \right]。\end{split} $ | (2) |
2) 从相机坐标系到图像坐标系的转换为:
| $ Z_{\rm{C}}\left[ {\begin{array}{*{20}{c}} x \\ y \\ 1 \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} f&0&0 \\ 0&f&0 \\ 0&0&1 \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{X_{\rm{C}}}} \\ {{Y_{\rm{C}}}} \\ {{Z_{\rm{C}}}} \end{array}} \right] ,$ | (3) |
式中,
3) 从图像坐标到像素坐标的转换为:
| $ \left[ {\begin{array}{*{20}{c}} u \\ v \\ 1 \end{array}} \right]{\text{ = }}\left[ {\begin{array}{*{20}{c}} {\dfrac{1}{{d_x}}}&0&{{u_0}} \\ 0&{\dfrac{1}{{d_y}}}&{{v_0}} \\ 0&0&1 \end{array}} \right]\left[ {\begin{array}{*{20}{c}} x \\ y \\ 1 \end{array}} \right],$ | (4) |
式中:
在相机和激光雷达对地面作物进行识别的过程中,2种传感器会探测到地面作物的不同特征,通过信号处理将2个传感器收集到的目标相应特征输出,其输出数据对目标识别结果的支持程度以及输出数据的一致性函数[22]是系统准确识别作物的重要依据。
假设
| $ {m}_{j}(w)=1-\dfrac{|E-{\mu }_{j}|}{2{\sigma }_{j}}\text{;}{m}_{j}(w): \alpha \to [0,1],w\in \alpha ,$ | (5) |
式中,
因为采用多传感器进行作物识别,所以采用关联性结果来表示2个传感器对同一个支持模糊命题的支持程度。具体操作是先假设2个传感器
| $ {S_{ji}} = \dfrac{{{m_j}(w) \wedge {m_i}(w)}}{{{m_j}(w) \vee {m_i}(w)}} = \dfrac{{\min \left\{ {{m_j}(w),{m_i}(w)} \right\}}}{{\max \left\{ {{m_j}(w),{m_i}(w)} \right\}}},$ | (6) |
式中,
然后进行判别,当2个传感器对模糊命题的支持度相同时,取
例如采用一组随机变量
假设随机变量的标准差和均值如表1所示。
|
|
表 1 玉米植株特征随机变量及其标准差和均值 Table 1 Random variables, standard deviations and means of maize plant characteristics |
将数值带入公式(5)计算的隶属度
|
|
表 2 各传感器对不同目标的隶属度 Table 2 Membership of each sensor to different targets |
根据公式(6)可以求得
根据相机和激光雷达目标识别输出的一致性函数,构建传感器采集的所有特征对模糊命题的支持度一致性矩阵:
| $ {\boldsymbol{M}} = \left[ {\begin{array}{*{20}{c}} 1&{{S_{12}}}&{...}&{{S_{1i}}}&{...}&{{S_{1l}}} \\ \vdots & \vdots &{}& \vdots &{}& \vdots \\ {{S_{j1}}}&{{S_{j2}}}&{...}&{{S_{ji}}}&{...}&{{S_{jl}}} \\ \vdots & \vdots &{}& \vdots &{}& \vdots \\ {{S_{l1}}}&{{S_{l2}}}&{...}&{{S_{li}}}&{...}&1 \end{array}} \right] ,$ | (7) |
式中,
利用上式中传感器采集的所有特征对模糊命题的支持度一致性计算出平均一致性,通过归一化处理,计算出第
| $ M'{'_j} = \dfrac{{M{'_j}}}{{\displaystyle\sum\limits_{i = 1}^l {\dfrac{1}{{l - 1}}\displaystyle\sum\limits_{i = 1,i \ne j}^l {{S_{ji}}} } }} = \dfrac{{\dfrac{1}{{l - 1}}\displaystyle\sum\limits_{i = 1,i \ne j}^l {{S_{ji}}} }}{{\displaystyle\sum\limits_{i = 1}^l {\dfrac{1}{{l - 1}}\displaystyle\sum\limits_{i = 1,i \ne j}^l {{S_{ji}}} } }},$ | (8) |
式中,
由于测试环境的目标干扰,行人、测试区域动态变化性等不确定因素,利用2种传感器采集目标的多类型特征数据,并依据获得的目标离散信息点集之间的离散状态确定多传感器的当前权重,离散因子根据不同时间段、多测试区域传感器测量的目标信息进行融合,有效避免了传感器权重选取的经验性和局限性;同时,将传感器当前权重引入到多传感器目标识别的平均加权一致性函数数学模型,通过计算处理给出多传感器目标识别的相对加权一致性计算函数;结合多传感器目标识别的相对一致性、多传感器目标识别的当前权重,构建基于离散因子的多传感器目标识别的数据融合支持度计算模型。
3 导航线提取将预处理后的图像与激光雷达特征点进行融合,剔除了伪特征点,对其获得的特征点进行直线拟合即可得到导航基准线。为减少异常点对作物特征点进行直线拟合的影响,引入随机采样一致(Random sample consensus, RANSAC)算法[23],通过反复选择数据集估计出模型,一直迭代到估计出较好的模型。具体步骤为:
1) 首先筛选可以估计出模型的最小数据,使用这个数据计算出数据模;
2) 将所有数据带入这个模型,计算出组成模型参数数据的数量即内点数量;
3) 比较当前模型和之前推出最好模型的内点数量,记录最大内点数的模型参数;
4) 重复上述步骤,直到迭代结束或者当前模型内点数量达到要求。
此时需要对迭代次数进行选择,假设内点在数据中的占比为t。则:
| $ {t} = \dfrac{{{n_{\rm{inliers}}}}}{{{n_{\rm{inliers}}} + {n_{\rm{outliers}}}}}, $ | (9) |
式中,
在每次计算模型使用N个点的情况下,选取的点至少有1个不是内点的概率是
| $ P = 1 - {(1 - {t^N})^k} ,$ | (10) |
通过上式,可以求得:
| $ k = \dfrac{{\lg (1 - P)}}{{\lg (1 - {t^n})}} ,$ | (11) |
内点占比t通常为先验值,P是我们希望RANSAC算法得到正确模型的概率,此时可以求出最优的迭代次数k。通过RANSAC算法分别得到左、右导航基准线,2条导航基准线的角平分线即玉米田导航线,如图7所示。设左导航基准线斜率为
|
图 7 导航基准线拟合 Fig. 7 Navigation baseline fitting |
| $ \dfrac{{\beta - {\beta _1}}}{{1 + \beta {\beta _1}}} = \dfrac{{{\beta _{\text{2}}} - \beta }}{{1 + \beta {\beta _2}}} 。$ | (12) |
试验采用英特尔Pentium(R) CPU G3250 @ 3.20 GHZ、4 GB内存、Windows 7(64位)操作系统的计算机,在Python3.7(Anaconda)的集成开发环境下编程完成。试验中的农业机器人宽45 cm、长60 cm,装有森云智能SG2-AR0233C-5200-GMSL2相机、16线激光雷达、4 G模块等多种传感器,采集前方环境和玉米植株信息,如图8所示。
|
图 8 数据采集设备 Fig. 8 Image acquisition equipment |
为了更精确地分析该方法在玉米田中的植保机器人行走区域识别精度,本试验通过布置标定好行距和株距的玉米植株,模拟真实场景开展精度分析试验。结果表明,本文算法可以准确提取导航线。由于实时性和正确性是导航线提取的正确指标,表3统计了本文算法不同传感器对随机900帧图像的平均处理时间及正确率,通过人工标定图像最合理的导航线,定义人工与本文算法提取的导航线之间的夹角为误差角,误差角超过5°时,视为导航线错误。
|
|
表 3 不同传感器性能评价指标 Table 3 Performance evaluation index of different sensors |
由表3可知,分别用相机、三维激光雷达和传感器融合的识别方法,平均处理时间逐渐增加,正确率也随之增加,当将相机和激光雷达融合时,平均处理时间和误差角度均满足要求。将该算法与候补定位点二次判别算法、动态迁移算法进行对比,本算法单帧平均处理时间为95.62 ms,优于候补定位点二次判别算法的单帧平均处理时间200 ms[9]和动态迁移算法的单帧平均处理时间97.56 ms[24],具有更高的实时性;本算法正确率为95.33%,优于候补定位点二次判别算法的正确率90%[9]和动态迁移算法的正确率95%[24],为农业机械的视觉导航提供了可靠保障。
5 结论本文基于半径的滤波方法依序迭代剔除点云数据噪音,利用DBSCAN算法进行点云数据聚类,导出最大密度相连的样本集合,采用激光雷达和相机信息融合的方式进行可通行区域提取,在图像数据中加入点云数据的反射率信息,降低了阴影、遮挡对导航线提取的影响。
根据多时间段、多空间区域传感器采集的目标特征量进行系统建模分析,并依据获得的目标特征值之间的离散因子确定多传感器权重选择,根据权重引入多传感器目标识别的平均加权一致性函数,获得具有冗余性的数据融合支持度模型。最终试验平均处理时间仅为95.62 ms,正确率高达95.33%,提高了检测结果的稳定性和准确性,为农业机器人在农田环境中作业提供了可靠的导航路径。
| [1] |
YANG K, ZHANG Z, CHENG H, et al. Domain centralization and cross-modal reinforcement learning for vision-based robotic manipulation[J]. International Journal of Precision Agricultural Aviation, 2018, 1(1): 48-55. DOI:10.33440/j.ijpaa.20200302.77 ( 0) |
| [2] |
张琳洁, 张文爱, 韩应征, 等. 农业机械导航关键技术发展分析[J]. 农机化研究, 2016, 38(6): 10-15. DOI:10.3969/j.issn.1003-188X.2016.06.002 ( 0) |
| [3] |
SØGAARD H T, OLSEN H J. Determination of crop rows by image analysis without segmentation[J]. Computers and Electronics in Agriculture, 2003, 38(2): 141-158. DOI:10.1016/S0168-1699(02)00140-0 ( 0) |
| [4] |
常昕, 陈晓冬, 张佳琛, 等. 基于激光雷达和相机信息融合的目标检测及跟踪[J]. 光电工程, 2019, 46(7): 91-101. ( 0) |
| [5] |
胡丹丹, 殷欢. 基于机器视觉的玉米收获机器人路径识别[J]. 农机化研究, 2017, 39(12): 190-194. ( 0) |
| [6] |
MARCHANT J A, BRIVOT R. Real-time tracking of plant rows using a hough transform[J]. Real-Time Imaging, 1995, 1(5): 363-371. DOI:10.1006/rtim.1995.1036 ( 0) |
| [7] |
梁习卉子, 陈兵旗, 姜秋慧, 等. 基于图像处理的玉米收割机导航路线检测方法[J]. 农业工程学报, 2016, 32(22): 43-49. DOI:10.11975/j.issn.1002-6819.2016.22.006 ( 0) |
| [8] |
俞毓锋, 赵卉菁. 基于相机与摇摆激光雷达融合的非结构化环境定位[J]. 自动化学报, 2019, 45(9): 1791-1798. ( 0) |
| [9] |
宋宇, 刘永博, 刘路, 等. 基于机器视觉的玉米根茎导航基准线提取方法[J]. 农业机械学报, 2017, 48(2): 38-44. DOI:10.6041/j.issn.1000-1298.2017.02.005 ( 0) |
| [10] |
冯娟, 刘刚, 司永胜, 等. 果园视觉导航基准线生成算法[J]. 农业机械学报, 2012, 43(7): 185-189. DOI:10.6041/j.issn.1000-1298.2012.07.034 ( 0) |
| [11] |
WOEBBECKE D M. MEYER G E, BARGEN K V, et a1. Color indices for weed identification under various soil, residue, and lighting conditions[J]. Transactions of the ASAE, 1995, 38(1): 259-269. DOI:10.13031/2013.27838 ( 0) |
| [12] |
KASHYAP Y, KHARE A, LIPTON M. An improved SOBEL algorithm for palm image edge detection using OTSU method[J]. Biometrics and Bioinformatics, 2012, 4(7): 312-317. ( 0) |
| [13] |
YANG H, ZHAO J, LAN Y, et al. Fraction vegetation cover extraction of winter wheat based on RGB image obtained by UAV[J]. International Journal of Precision Agricultural Aviation, 2018, 1(1): 54-61. ( 0) |
| [14] |
范九伦, 赵凤. 灰度图像的二维Otsu曲线阈值分割法[J]. 电子学报, 2007, 35(4): 751-755. DOI:10.3321/j.issn:0372-2112.2007.04.029 ( 0) |
| [15] |
DENG X L, THOMASSON A J, PUGH A N, et al. Estimating the severity of sugarcane aphids infestation on sorghum with machine vision[J]. International Journal of Precision Agricultural Aviation, 2018, 1(1): 89-96. DOI:10.33440/j.ijpaa.20200302.89 ( 0) |
| [16] |
赵高长, 张磊, 武风波. 改进的中值滤波算法在图像去噪中的应用[J]. 应用光学, 2011, 32(4): 678-682. DOI:10.3969/j.issn.1002-2082.2011.04.017 ( 0) |
| [17] |
DIWAKAR M, KUMAR M. A review on CT image noise and its denoising[J]. Biomedical Signal Processing and Control, 2018, 42: 73-88. DOI:10.1016/j.bspc.2018.01.010 ( 0) |
| [18] |
BEHARA K N S, BHASKAR A, CHUNG E. A DBSCAN-based framework to mine travel patterns from origin-destination matrices: Proof-of-concept on proxy static OD from Brisbane[J]. Transportation Research Part C: Emerging Technologies, 2021, 131: 103370. DOI:10.1016/j.trc.2021.103370 ( 0) |
| [19] |
GIRI K, BISWAS T K, SARKAR P. ECR-DBSCAN: An improved DBSCAN based on computational geometry[J]. Machine Learning with Applications, 2021, 6: 100148. DOI:10.1016/j.mlwa.2021.100148 ( 0) |
| [20] |
张堡瑞, 肖宇峰, 郑又能. 基于激光雷达与视觉融合的水面漂浮物检测[J]. 应用激光, 2021, 41(3): 619-628. ( 0) |
| [21] |
黄强, 潘常春, 裴凌, 等. 基于可重构标定板的激光与视觉联合标定方法[J]. 导航定位与授时, 2021, 8(3): 27-33. ( 0) |
| [22] |
卢莉萍, 张晓倩. 复杂环境下多传感器目标识别的数据融合方法[J]. 西安电子科技大学学报, 2020, 47(4): 31-38. ( 0) |
| [23] |
KASPI O, YOSIPOF A, SENDEROWITZ H. RANdom SAmple Consensus (RANSAC) algorithm for material-informatics: Application to photovoltaic solar cells[J]. Journal of Cheminformatics, 2017, 9(1): 1-15. DOI:10.1186/s13321-016-0187-6 ( 0) |
| [24] |
杨洋, 张博立, 查家翼, 等. 玉米行间导航线实时提取[J]. 农业工程学报, 2020, 36(12): 162-171. DOI:10.11975/j.issn.1002-6819.2020.12.020 ( 0) |
2022, Vol. 43



0)