Processing math: 100%
An object detection and tracking algorithm based on LiDAR and camera information fusion
  • Abstract

    As an important part of intelligent vehicle, environmental perception system mainly refers to the detection of the surrounding environment of the vehicle by the sensors attached on the vehicle. In order to ensure the accuracy and stability of the intelligent vehicle environmental perception system, it is necessary to use intelligent vehicle sensors to detect and track objects in the passable area. In this paper, an object detection and tracking algorithm based on the LiDAR and camera information fusion is proposed. The algorithm uses the point cloud data clustering method of LiDAR to detect the objects in the passable area and project them onto the image to determine the tracking objects. After the objects are determined, the algorithm uses color information to track objects in the image sequence. Since the object tracking algorithm based on image is easily affected by light, shadow and background interference, the algorithm uses LiDAR point cloud to modify the tracking results. This paper uses KITTI data set to verify and test this algorithm and experiments show that the target area detection overlap of the proposed target detection and tracking algorithm is 83.10% on average and the tracking success rate is 80.57%. Compared with particle filtering algorithm, the average region overlap increased by 29.47% and the tracking success rate increased by 19.96%.

    Keywords

  • 智能车辆[]指的是集成多种技术,包括环境感知、路径规划、决策控制等技术,搭载先进的车载传感器、控制器、执行器等装置,可以实现车与人、车、路、云端等的信息交流与共享,以达到安全、高效、节能的行驶,并最终可以实现自动驾驶的新型汽车[]。环境感知技术[]指的是智能车辆依靠自身携带的传感器,包括车载视觉传感器、激光雷达、毫米波雷达、GPS全球定位系统、INS惯性导航系统以及超声波雷达等,探测车辆周围的环境信息,并与存储在云端的环境数据进行匹配,描述车辆周围环境状况的技术[]。只有环境感知技术准确、实时、可靠,才能保证车辆规划出正确的通行路径,进而安全地实现自动行驶,因此环境感知技术是智能车辆实现安全驾驶的基础要求和前提条件[]

    为确保环境感知的快速性和准确性,需要利用智能车辆车载传感器对可通行区域的目标进行检测和跟踪[-]。目标检测[]指在环境背景中提取出待检测的目标,如车辆、行人、建筑物等;目标跟踪[]指在连续的状态下对某一目标进行连续的检测,提取出目标的运动状态和运动轨迹,常用于轨迹预测和运动状态分析等。常见的目标检测和跟踪方法主要基于视觉传感器,在初始图像数据中利用时域或频域特征将目标从背景中分割出来,并针对该特征在后续图像或视频中提取追踪目标[]。常见的目标跟踪算法有基于卡尔曼滤波的目标跟踪算法[],该算法基于对随机过程的估计,主要应用于线性高斯系统;还有基于粒子滤波的目标跟踪算法[],该算法基于蒙特卡洛算法进行非线性跟踪;Dou等人[]在粒子滤波的框架下结合了相互作用的多个模型,包括CBWH、CLTP和HOG;侯志强等人[]在粒子滤波的基础上采用颜色、空间和纹理信息对目标进行跟踪。但以上算法主要依靠视觉传感器对目标进行跟踪,容易受到光照变化、遮挡、背景干扰的影响[],在实际追踪过程中容易出现目标丢失的现象,而且常见的跟踪算法在初始状态下需要人为指定跟踪目标,在实际应用中带来不便。

    本文提出一种基于激光雷达和视觉传感器信息融合的目标检测和跟踪算法。在初始状态下,利用激光雷达的点云数据对地面进行检测,根据点云数据的反射率对可通行区域进行提取,并在可通行区域上利用DBSCAN聚类算法对目标物进行检测;根据已有的激光雷达和视觉传感器的标定信息,将激光雷达检测到的障碍物投影到图片上,根据目标的颜色直方图信息确定跟踪目标;在粒子滤波算法的基础上,利用激光雷达点云数据对目标位置进行修正,从而实现对目标的跟踪。

    Figure 1. Flow chart of target detection
    Full-Size Img PowerPoint

    Flow chart of target detection

    基于激光雷达和相机的目标检测算法主要包含五部分:1)激光雷达和相机的联合标定,2)激光雷达的点云数据预处理,3)地面拟合,4)可通行区域提取和5)基于DBSCAN算法的点云数据聚类。本文采用激光雷达和相机信息融合的方式进行可通行区域提取,在图像数据中加入点云数据的反射率信息,降低了光照、遮挡对可通行区域提取的影响。在基于DBSCAN算法的点云数据聚类中,本文在原有的距离维度上增加激光雷达的反射率信息,提高聚类精度。算法流程如图 1所示。

    [XCYCZC1]=[\boldsymbolR\boldsymbolT0T1][XLYLZL1][XCYCZC1]=[RT0T1][XLYLZL1]

    1) 从激光雷达坐标系转换为相机坐标系,可以用旋转矩阵R和平移矩阵T表示。其中,R是大小为3×3的矩阵,表示空间坐标旋转;T是大小为3×1的矩阵,表示空间坐标平移。

    ZC[xy1]=[f0000f000010][XCYCZC1]ZC[xy1]=[f0000f000010][XCYCZC1]

    标定是多传感器信息融合的准备条件,不同传感器有着独立的坐标系和不同的采集频率,必须把不同坐标系的数据转换到同一坐标系并进行时间配准,才能实现融合。对于激光雷达和相机的联合标定,其目的就是得到激光雷达和相机数据之间的转换关系,即找到同一时刻激光点云数据和图像中对应的像素点。

    通过最终的转换将激光点云数据投影到图像上,通过张正友标定法[]可以得到坐标转换关系,实现激光雷达和相机的空间联合标定。由于激光雷达的探测视场较大,有些点云数据无法投影到图像上,本文对这部分点云数据进行直接剔除操作。

    3) 从图像坐标系到像素坐标系的转换,此时不存在旋转变换,但是坐标原点位置不同,单位长度不同,主要涉及伸缩变换和平移变换。

    Figure 2. Flow chart of coordinate transformation
    Full-Size Img PowerPoint

    Flow chart of coordinate transformation

    ZC[uv1]=[1dx0u001dyv0001][f0000f000010]ZC[uv1]=[1dx0u001dyv0001][f0000f000010]

    下面介绍激光雷达和相机的时间配准问题,由于相机的采集频率要高于激光雷达,同时相机图像数据和激光雷达点云数据有同步的时间戳,因此本文采用时间最近邻匹配的方法找到与每一帧激光雷达数据时间间隔最小的图像数据进行处理,实现激光雷达和相机的时间配准。

    激光雷达坐标系可以描述物体与激光雷达的相对位置,表示为[XL, YL, ZL],其中原点为激光雷达几何中心,XL轴水平向前,YL轴水平向左,ZL轴竖直向上,符合右手坐标系规则。相机系统中存在三个坐标系:像素坐标系、图像坐标系和相机坐标系,像素坐标系表示为[u, v],其中原点为图像左上角,u轴水平向右,v轴竖直向下;图像坐标系指在图像像素坐标系下建立以物理单位(如毫米)表示的坐标系,使像素尺度具有物理意义,表示为[x, y],其中原点为相机主点,即相机光轴与图像平面的交点,一般位于图像平面中心,x轴与u轴平行,y轴与v轴平行;相机坐标系可以描述物体与相机的相对位置,表示为[XC, YC, ZC],其中原点为相机光心O点,XC轴与x轴平行,YC轴与y轴平行,ZC轴与摄像机光轴平行,与图像平面垂直。总体的变换思路如图 2所示。

    2) 从相机坐标系到图像坐标系的转换,是从三维坐标系转换为二维坐标系的过程,属于透视投影关系,满足三角形的相似定理。其中f为相机焦距。

    坐标变换过程一般可以分成三个步骤:

    [\boldsymbolR\boldsymbolT0T1][XLYLZL1][RT0T1][XLYLZL1]

    综上所述,激光雷达和相机的坐标转换关系可以表示为

    [uv1]=[1dx0u001dyv0001][xy1][uv1]=[1dx0u001dyv0001][xy1]

    根据激光雷达的性质,一般情况下激光雷达的扫描数据都存储成点云[](point cloud)的形式,即每个扫描数据包以若干扫描点的形式存储,每个扫描点包含该点的三维坐标、颜色信息或反射率信息等。由于环境噪声的干扰以及设备精准度的缺陷,原始的点云数据中存在误识别点和杂散点,这些点统称噪声点[]。针对原始点云数据中存在的噪声点,本文采用基于半径的滤波方法进行剔除,设置点云数据周围规定半径内的最小点云数,如果给定目标点周围点云数小于设置数字,则假定该点为噪声点。利用该方法可以初步剔除原始点云数据中的噪声点。

    激光雷达[](Laser detection and ranging)常用于目标物探测和跟踪。环境中不同目标物距雷达距离、反射率、散射形状不同,导致其反射的激光脉冲参数不同,通过接收并测量反射回波信息,可以得到目标物的位置和反射率等信息。

    \boldsymbolax+\boldsymbolby+\boldsymbolcz=d,ax+by+cz=d,

    设定平面阈值Δd,若|did|<Δd,则判定该点属于地面。

    对于任意点云数据xiyizi,根据拟合参数abc计算该点的平面值di

    \boldsymbolαxi+\boldsymbolbyi+\boldsymbolczi=diαxi+byi+czi=di
    \boldsymbola2+\boldsymbolb2+\boldsymbolc2=1;a2+b2+c2=1;

    d为坐标原点到该平面的距离,利用最小二乘法可以计算出参数abcd的值。

    基于点云数据的地面拟合的方法主要采用最小二乘法[],在车辆初始状态下,选取车辆正前方区域的地面数据进行三维拟合,空间三维平面的拟合方程可以表示为

    其中:abc分别为xyz平面的单位法向量,即满足关系式:

    经过可通行区域提取,可以得到地面数据和路面边界数据,根据以上结果在原始点云数据中剔除地面数据,并分割出可通行区域的数据,得到的结果就是目标物点云数据的集合。

    点云数据的反射率是激光雷达测量中的一项重要指标[],根据不同材料对激光的反射效果不同以及路面颜色的差异,可以基于地面点云数据的反射率和图像融合进行可通行区域提取。

    本文采用的可通行区域提取方法主要包含以下几步:首先利用栅格结构将地面点云数据进行网格化处理,将栅格内点云个数和点云反射率平均值记录下来,形成一幅二维的平面反射率分布图;由于有些栅格内点云数目特别稀少,导致该栅格反射率不太稳定,因此利用周围的四个栅格对点云数目过少的栅格进行插值处理,得到新的反射率分布图;然后利用反射率信息对路面区域进行提取,得到可通行区域信息;之后利用激光雷达和相机的标定信息将可通行区域投影到图片中,利用图像处理的方法,如灰度化、二值化(阈值分割)、霍夫变换以及膨胀腐蚀等方法对图像中的可通行区域进行提取;最后根据两种方式提取到的可通行区域进行加权叠加,得到最终的可通行区域结果。主要流程如图 3所示。

    Figure 3. Flow chart of passable area extraction
    Full-Size Img PowerPoint

    Flow chart of passable area extraction

    3) 以步骤2)的方式不断扩张,直到该点群内所有点都处理完毕,从而得到一个包含核心点和边界点的最大化的点群。

    通过DBSCAN算法对目标物点云数据进行聚类,可以将各个目标物分成不同类,提取出目标物的位置和大小。根据激光雷达和相机的标定信息,将目标物的点云数据投影到图片上,通过投影结果就可以确定目标物在图片中的位置。在可通行区域内可能存在一个或多个目标物,在之后的目标跟踪算法中将分别对各个目标进行跟踪。

    DBSCAN(Density-based spatial clustering of application with noise)算法是一种典型的基于密度的聚类算法[]。该算法的核心思想是,对于构成一个簇的每个点,该点邻域的数据密度必须超过某个阈值。因此,该算法有两个重要的参数,规定半径的邻域Eps以及构成簇的点邻域内最少包含的数据点数目MinPts。本文在规定半径的邻域Eps的定义中加入反射率的信息,采用欧氏距离计算两点间的距离,提高聚类精度。

    4) 之后再寻找下一个点群,重复步骤1)~3),依次类推处理完毕所有数据点,则聚类完成,输出的每个数据点都标记上相应的点群编号或噪声点。

    DBSCAN聚类算法流程如下:

    1) 首先根据预先确定聚类参数Eps和MinPts对某个未处理的点进行判断,若其Eps邻域内数据点数量大于MinPts,则标记为核心点,并标记上对应的点群编号,同时将其Eps邻域内所有点标记为同一点群编号;若其半径Eps内数据点数量小于MinPts,但是该点落在某核心点的Eps邻域内,则称之为边界点,一个边界点可能同时落入一个或多个核心点的Eps邻域;若其Eps邻域内数据点数量小于MinPts,则将该点标记为噪声点,处理下一个点;

    2) 然后对该点邻域内点处理,各自判断是否为核心点,并将其中属于核心点的数据点的Eps邻域内点加入对应的点群中并进行核心点判断;

    基于激光雷达和相机的目标跟踪算法主要基于粒子滤波算法的框架,由第2中检测到的目标确定初始跟踪目标,利用颜色信息在图像中跟踪目标,在粒子重采样后,用当前帧的点云目标检测结果对目标状态进行修正,得到更加精确的目标状态。具体流程图如图 4所示。

    Figure 4. Flow chart of object tracking
    Full-Size Img PowerPoint

    Flow chart of object tracking

    qξc=ξ=1BCδ(I(x,y)ξ),qcξ=BCξ=1δ(I(x,y)ξ),

    其中:BC是计算直方图的像素区间,ξ是区间的变量,I(x, y)是坐标(x, y)位置的像素值。本文采用Bhattacharyya系数[]作为相似性表征。

    颜色特征是图像处理领域常用的一种特征,该特征对于图像尺寸、方向和视角依赖性很低,具有较高的鲁棒性,常常用于目标检测和目标跟踪领域。颜色直方图是颜色特征的一种常见表达形式,计算简单,使用便捷。对于图像I,颜色直方图的计算式为

    2) 粒子预测:根据状态转移方程,每个粒子预测得到一个新的粒子,在k时刻粒子集合为{Xik}Ni=1

    其中:A为状态转移矩阵,本文取单位矩阵;W为噪声,本文取均值为0的高斯噪声。

    5) 状态估计:根据当前样本粒子集合的状态和权重估计目标状态:

    4) 选择阶段(重采样):根据粒子权重对样本进行重新采样,复制权重高的粒子,淘汰权重低的粒子,使新的粒子集合满足之前的权重分布,即权重越大,粒子保留的越多。重采样后,重新设置权重wik=1/N

    通过以上步骤,基本可以实现基于粒子滤波的目标跟踪。由于目标的状态转移特性很难预测,因此本文采用常用的一阶线性运动方程作为系统的状态转移方程:

    3) 权值更新:根据当前时刻的测量值Zk,为每个粒子重新分配权重:

    wki=wkij=1Nwkjwik=wikNj=1wjk
    wkiwk1ip(Zk|Xki)p(Xki|Xk1i)q(Xki|Xk1i,Zk),wikwik1p(Zk|Xik)p(Xik|Xik1)q(Xik|Xik1,Zk),

    粒子滤波(Particle filter,PF)是一种基于蒙特卡洛原理的贝叶斯滤波算法[]。它利用粒子群的概率密度解决非线性的滤波问题,它的核心思想是从后验概率中随机抽取粒子表达系统的概率分布,通过抽取粒子的平均值估计系统状态,因此被广泛应用于视觉追踪、目标导航定位等领域。

    粒子滤波的主要流程如下:

    1) 初始化:根据先验概率分布p(X0),对原始样本进行采样,投放N个粒子,建立粒子集合{Xi0}Ni=1,每个粒子的权重设为wi0=1/N

    并对粒子的权重进行归一化:

    X(k)=\boldsymbolAX(k1)+\boldsymbolW,X(k)=AX(k1)+W,
    X(k)=i=1NwkiXkiX(k)=Ni=1wikXik

    由于基于图像的目标跟踪算法容易受到光照、遮挡和畸变的影响,在目标跟踪过程中常常会出现目标漏检、错检的情况。点云数据是通过激光雷达发射和接收激光信息而获得的,因此点云数据不容易受光照和遮挡的影响,可以为图像数据进行信息补充。基于激光点云的目标状态修正主要包括以下几步:点云数据和图像数据时间同步,基于激光点云的可通行区域的目标物提取,目标物点云投影到图片上以及与粒子滤波追踪到的目标物进行匹配。

    根据时间同步的结果,在相机图像数据对应的激光点云数据中进行目标物提取,主要方法在第2节有详细介绍。之后根据激光雷达和相机的标定信息,将基于激光点云提取到的目标物投影到图片上,找到与粒子滤波的跟踪结果X(k)匹配的目标物,得到对应的追踪目标x(k)。由于粒子滤波的目标追踪结果是粒子集的加权叠加,符合均匀分布,激光点云的目标提取结果是激光点的加权叠加,也符合均匀分布,因此目标真实状态可以认为是均匀分布的,假设当前时刻粒子滤波中的粒子数为N1,目标处激光点数目为N2,则当前时刻目标的真实位置:

    X^(k)=1N1+N2(N1X(k)+N2x(k))ˆX(k)=1N1+N2(N1X(k)+N2x(k))

    由于激光雷达和相机的采样频率不同,导致激光雷达采集到的点云数据与相机采集到的图像数据无法直接匹配,需要对点云数据和图像数据进行时间同步。本文采用的时间同步方法为基于最近邻的时间戳匹配法,在激光雷达和相机采集数据时,记录下开始采集的时间,通过最近邻匹配的方式,找到采集时间最相近的数据。一般情况下,激光雷达的采集频率较低,相机的采集频率较高。最近邻匹配方法舍弃多采集的相机数据,用留下的相机图像数据与激光点云数据进行匹配。该方法可以认为每组数据的记录时间是相同的,即激光雷达和相机观测到的是同一时刻的场景。

    在粒子滤波算法中,对跟踪结果影响最大的两个阶段是初始化阶段和选择阶段(也称重要性重采样阶段)。本文采用基于激光雷达和相机的目标检测算法确定跟踪目标,可以提高初始化阶段跟踪目标的准确性;为了提高选择阶段的准确性,本文采用基于激光点云的目标状态修正算法对跟踪结果进行修正。

    2) 根据3.1.1中颜色直方图的计算方式提取跟踪目标的颜色特征信息;

    ① 根据状态转移方程式(12)和上一时刻粒子状态{Xik1}N1i=1,预测当前时刻粒子状态{Xik}N1i=1

    1) 在初始状态下,根据第2节的流程在激光雷达点云数据中提取出可通行区域内的目标物,将目标物投影到相机图像上,确定跟踪目标的状态X(0),包括目标的位置和大小;

    综上所述,本文基于激光雷达和相机的目标检测及跟踪算法的整体流程如下:

    ② 根据Bhattacharyya系数,计算当前时刻粒子与上一时刻粒子的相似度;

    ⑤ 在当前帧,利用激光点云数据提取可通行区域的目标物,并与粒子滤波追踪到的目标物进行匹配,得到对应的追踪目标x(k),假设当前时刻追踪目标处激光点数目为N2,当前激光点状态为{xik}N2i=1,则x(k)=1N2N2i=1xik

    3) 根据先验概率分布在目标位置均匀投放N1个初始粒子{Xi0}N1i=1,每个粒子的权重设为wi0=1/N1

    ⑦ 输出当前帧的追踪结果ˆX(k)

    5) 结束。

    ③ 根据粒子相似度为粒子分配新的权重,并对粒子权重进行归一化;

    ⑥ 根据粒子滤波的目标追踪结果X(k)和激光点云的目标提取结果x(k),计算当前时刻目标的真实状态ˆX(k)[]

    ④ 根据粒子权重对样本进行重新采样,采用简单随机重采样的方法对粒子进行重新采样,并对重采样后的粒子重新分配权重wik=1/N1,根据当前粒子集计算出当前时刻的状态估计X(k)=N1i=1wikXik

    4) 对k=1, 2, 3, …, FFrame

    实验采用4 GB内存的计算机作为实验平台,并在MATLAB 2017b上进行编程实现。本文采用粒子滤波算法(particle filter, PF)[]、无损卡尔曼滤波算法(unscented Kalman filter, UKF)[]、DCO-X算法[]作为对比算法,验证算法的有效性。

    为了验证本文提出算法的有效性,采用KITTI数据集的目标追踪集合对算法性能进行测试。KITTI数据集[]是由德国卡尔斯鲁厄理工学院和丰田美国技术研究院联合创办,是目前国际上最大的自动驾驶场景下的计算机视觉算法评测数据集,该数据集提供了激光雷达和相机之间的坐标转换关系以及数据同步的时间戳,方便实验人员进行数据融合。同时,该数据集提供了人工标注的目标检测及目标跟踪的真实值,为实验人员验证算法有效性提供了依据。

    对于MinPts参数,选取原则是MinPts应不小于聚类数据的空间维度数加一,对于二维数据一般选取MinPts=4;对于Eps参数选取,可以通过距离法进行判断:对于数据集D中的任一点p,计算其到最近的第MinPts个点的距离,记为ddistm(p),遍历所有数据点得到集合DDistm,对集合中的数据升序排序,并绘制曲线,得到DDistm曲线,对于密度分布较为均匀的数据,其DDistm曲线一般如图 5所示,其中横坐标代表排序后数据点编号,纵坐标代表对应的ddistm值。A点一般是距离(n, 0)点最近的点(n为一帧数据中数据点总数)。记(n, 0)点为S点,将到S点的距离作为判断依据,选取距离最小的点作为A点,将A点对应的ddistm值作为Eps参数,可以得到较好的聚类效果。

    对于粒子滤波算法,粒子数目的设置应当在不影响计算速度的情况下尽可能的增加,高斯方差按经验值选取,所以本文采取的粒子数目N=300,高斯方差σ=0.35。

    Figure 5. Typical DDistm graph
    Full-Size Img PowerPoint

    Typical DDistm graph

    本实验中需要设置的参数主要由有两部分,一部分是DBSCAN聚类算法中的规定半径的邻域Eps以及构成簇的点邻域内最少包含的数据点数目MinPts;另一部分是粒子滤波算法中的粒子数目和高斯方差。

    Figure 6. Target detection results. (a), (b) 3D plot of point cloud; (c), (d) Target detection results in pictures
    Full-Size Img PowerPoint

    Target detection results. (a), (b) 3D plot of point cloud; (c), (d) Target detection results in pictures

    本实验中目标检测的作用有两方面,一是确定初始跟踪目标,二是对粒子滤波的结果进行修正。主要步骤包括可通行区域提取,点云数据聚类以及将目标结果投影到图片上。图 6(a)、6(b)展示的是点云数据的三维显示图,颜色代表该点的反射率,其中红框内是检测到的目标,黑线代表可通行区域边界线,图 6(c)、6(d)展示的是目标检测最终结果,其中红框内是检测到的目标,黄线代表可通行区域边界线。

    为了定量分析本实验的目标追踪结果,采用X方向追踪轨迹(X-trace)、Y方向追踪轨迹(Y-trace)、中心位置误差(center error)、区域重叠(region overlap)以及成功率(success rate)来评价跟踪算法。

    表 1统计了使用KITTI数据集的目标追踪集合对车辆进行追踪的X方向平均误差(X average error,用exa表示)、Y方向平均误差(Y average error,用eya表示)、中心位置平均误差(average center error,用eac表示)、平均区域重叠(average region overlap,用oar表示)以及成功率(success rate,用Rs表示)。当本帧图像区域重叠超过50%时认为本帧追踪成功。从表中可以看出在使用KITTI数据集进行目标追踪时,本文提出的算法具有良好效果。

    图 8显示了KITTI数据集2011年9月26日采集的数据的X方向追踪轨迹和Y方向追踪轨迹,该数据的图片尺寸是1242 pixels×375 pixels,从该图可以看出本文提出的算法的X方向追踪轨迹精度和Y方向追踪轨迹精度和稳定性是四种算法中最高的。

    图 7显示的是本文算法的追踪效果图(performance plot),蓝色框表示的是目标真实位置,红色框表示的是本文算法的目标追踪位置,紫色框表示的是DCO-X算法的追踪位置,绿色框表示的是UKF算法的追踪位置,青色框代表的是PF算法的追踪位置。从追踪效果图中可以看出,本文算法可以准确跟踪到追踪目标,追踪效果较好。

    exa/pixel eya/pixel eac/pixel oar/% Rs/%
    本文方法 1.022 3.431 3.724 83.10 80.57
    DCO-X 3.389 6.096 7.852 78.85 80.39
    UKF 5.059 9.443 12.664 66.60 71.42
    PF 23.022 11.884 27.806 56.63 60.61
    CSV Show Table
    Figure 7. Target tracking results
    Full-Size Img PowerPoint

    Target tracking results

    Figure 8. Target tracking results. (a) X-trace; (b) Y-trace
    Full-Size Img PowerPoint

    Target tracking results. (a) X-trace; (b) Y-trace

    针对智能车辆环境感知系统,本文提出了一种基于激光雷达和相机的信息融合的目标检测及追踪算法。首先,本文利用激光点云数据聚类方法对可通行区域的障碍物进行检测,并投影到图片上,确定跟踪目标。之后,本文在粒子滤波的算法基础上,利用颜色信息追踪目标,针对基于图像的目标追踪算法容易受光照、遮挡、背景干扰等因素的影响,采用激光雷达的目标检测结果对目标追踪结果进行修正,提高目标追踪效果。最后,本文使用KITTI数据集对算法进行测试和验证。实验表明,本算法在目标追踪的X方向误差、Y方向误差、中心误差、区域重叠、成功率等评价标准中具有较好的效果。

  • References

    Bishop R. Intelligent Vehicle Technology and Trends[M]. Boston: Artech House, 2005.

    Google Scholar

    何树林.浅谈智能汽车及其相关问题[J].汽车工业研究, 2010(9): 28-30.

    DOI: 10.3969/j.issn.1009-847X.2010.09.008

    Lan Y, Huang J, Chen X. Environmental perception for information and immune control algorithm of miniature intelligent vehicle[J]. International Journal of Control & Automation, 2017, 10(5): 221-232.

    http://cn.bing.com/academic/profile?id=ce95fe7d7af5d81b725f40a217be168b&encoded=0&v=paper_preview&mkt=zh-cn

    Google Scholar

    高德芝, 段建民, 郑榜贵, 等.智能车辆环境感知传感器的应用现状[J].现代电子技术, 2008(19): 151-156.

    DOI: 10.3969/j.issn.1004-373X.2008.19.049

    Gao D Z, Duan J M, Zheng B G, et al. Application statement of intelligent vehicle environment perception sensor[J]. Modern Electronics Technique, 2008(19): 151-156.

    DOI: 10.3969/j.issn.1004-373X.2008.19.049

    CrossRef Google Scholar

    王世峰, 戴祥, 徐宁, 等.无人驾驶汽车环境感知技术综述[J].长春理工大学学报(自然科学版), 2017, 40(1): 1-6.

    DOI: 10.3969/j.issn.1672-9870.2017.01.001

    Wang S F, Dai X, Xu N, et al. Overview on environment perception technology for unmanned ground vehicle[J]. Journal of Changchun University of Science and Technology (Natural Science Edition), 2017, 40(1): 1-6.

    DOI: 10.3969/j.issn.1672-9870.2017.01.001

    CrossRef Google Scholar

    Wang Z N, Zhan W, Tomizuka M. Fusing bird view LIDAR point cloud and front view camera image for deep object detection[OL]. arXiv: 1711.06703[cs.CV].

    http://www.researchgate.net/publication/321180423_Fusing_Bird_View_LIDAR_Point_Cloud_and_Front_View_Camera_Image_for_Deep_Object_Detection

    Google Scholar

    View full references list
  • Cited by

    Periodical cited type(42)

    1. 薛飞,胡一峰,何星晔,侯楚焓,刘雨豪,刘辽雪. 基于力觉临场感的带电作业机器人遥操作控制系统设计. 机械与电子. 2025(04): 58-63 .
    2. 周沫,张春城,何超. 基于相机激光雷达融合的目标检测方法. 专用汽车. 2024(02): 69-72 .
    3. 郑宇宏,曾庆喜,冀徐芳,王荣琛,宋雨昕. 基于改进YOLOv5s和传感器融合的目标检测定位. 河北科技大学学报. 2024(02): 122-130 .
    4. 陈悦,罗逸豪,李锦. 基于多模态感知的水下目标检测应用构想. 数字海洋与水下攻防. 2024(03): 334-341 .
    5. 赵晨子. 基于激光跟踪小空间搜索的运动轨迹生成方法. 激光杂志. 2023(02): 220-225 .
    6. 孙浩铭,夏金泽,胡盛辉,梁冬泰. 改进UNet与DBSCAN融合的车道线检测方法. 机械制造. 2023(04): 68-75+61 .
    7. 张兴,韩俊,袁玉冰. 应用激光测距技术的3D打印喷头轨迹跟踪方法. 激光杂志. 2023(06): 194-198 .
    8. 连婷,沈娴,张波. 基于深度学习网络的三维激光雷达弱小目标分割研究. 激光杂志. 2023(11): 136-141 .
    9. 蒋文娟,王高平,邵开丽,张亚娟. 基于机器视觉的激光雷达目标跟踪与定位方法. 激光杂志. 2023(12): 218-224 .
    10. 蒋红梅,欧阳玉梅. 融合无线射频与激光信息的多目标识别和定位研究. 激光杂志. 2022(02): 66-70 .
    11. 李辉燕,肖新华,成俊. 网络化激光雷达的多源数据融合点云分类算法研究. 激光杂志. 2022(02): 124-128 .
    12. 李盼盼,梁丰,彭虎军. 基于数据感知技术的心理健康状态实时跟踪研究. 电子设计工程. 2022(12): 138-142 .
    13. 孙科,张彦斐,宫金良. 基于离散因子的多传感器数据融合和导航线提取方法. 华南农业大学学报. 2022(05): 92-98 .
    14. 胡远志,董泰宏,罗毅,蒲浩. 采用传感器融合的车辆前方碰撞预警系统. 重庆理工大学学报(自然科学). 2022(07): 46-53 .
    15. 张一帆,秦鑫宇,王文亮,刘识灏,牛亦龙. 基于双目定位测距的工业车辆实时避障. 计算机系统应用. 2022(08): 192-202 .
    16. 黄磊,黄彩兰,刘波. RFID标签中多目标的激光快速识别. 激光杂志. 2022(08): 200-204 .
    17. 吴苏礼,雷双媛,王冠卓,刘大旭. 基于传感器感知数据的心理健康状态实时跟踪研究. 微型电脑应用. 2022(08): 43-46 .
    18. 乔凯,杨杰,靳辰飞. 基于时间相关单光子计数的穿透成像激光雷达研究(特邀). 红外与激光工程. 2022(08): 124-136 .
    19. 徐坤,周子昂,王祺,耿文波. 基于激光视觉传感器的智能家居体感交互系统设计. 激光杂志. 2022(09): 218-223 .
    20. 王连枝,尹克岩. 基于激光视觉传感的机器运动目标跟踪研究. 激光杂志. 2022(04): 205-209 .
    21. 王力锋,黄斐,陈文冬,周万洋. 基于激光点云特征匹配的物流分拣目标实时跟踪方法. 激光杂志. 2022(10): 164-168 .
    22. 郝娟,孙皓月,唐振禹,穆莹雪,贾丽坤. 基于大数据分析的激光雷达三维图像重建方法. 激光杂志. 2022(12): 93-97 .
    23. 彭炽刚. 基于激光雷达点云数据的输电线路巡检航线自动规划方法. 电子设计工程. 2021(03): 22-26 .
    24. 韦复国,邱世平. 激光雷达技术在森林资源监测中的研究进展. 林业调查规划. 2021(01): 18-22+95 .
    25. 唐国栋,方明,雷立宏. 粗精结合的室内机器人视觉定位方法. 计算机工程与设计. 2021(03): 805-813 .
    26. 孙桂煌,姜忠海. 深度学习理论的复杂光照背景车位智能检测和识别研究. 激光杂志. 2021(04): 81-85 .
    27. 李研芳,黄影平. 基于激光雷达和相机融合的目标检测. 电子测量技术. 2021(05): 112-117 .
    28. 张介嵩,黄影平,张瑞. 基于CNN的点云图像融合目标检测. 光电工程. 2021(05): 66-76 . 本站查看
    29. 张立东,李居尚,战荫泽. 基于改进型正则化算法的图像融合优化研究. 激光与红外. 2021(05): 663-667 .
    30. 金华,郑春,把萍. 物联网环境下异构传感数据融合目标识别算法. 成都工业学院学报. 2021(02): 47-50 .
    31. 孙锋. 高分辨率遥感影像测量船移动位置跟踪方法. 舰船科学技术. 2021(12): 178-180 .
    32. 张继伟,罗哲轩,蔡澍雨. 基于激光雷达点云数据的树种识别系统设计. 电子设计工程. 2021(14): 168-171+179 .
    33. 张煌,王国权,孙鹏. 基于信息融合的目标检测系统研究. 电子测量技术. 2021(19): 28-35 .
    34. 程腾,孙磊,侯登超,石琴,张峻宁,陈炯,黄鹤. 基于特征融合的多层次多模态目标检测. 汽车工程. 2021(11): 1602-1610 .
    35. 陈凯阳,李航,彭程,李杨龙. 一种三维激光雷达与双目相机的联合标定方法. 软件导刊. 2021(12): 152-158 .
    36. 卢莉萍,张晓倩. 复杂环境下多传感器目标识别的数据融合方法. 西安电子科技大学学报. 2020(04): 31-38 .
    37. 徐莉莉,张远. 激光雷达技术的资源环境遥感监测系统设计与实现. 激光杂志. 2020(08): 54-58 .
    38. 刚建华,付苗苗. 激光雷达在复杂环境下机器人运动轨迹实时检测中的应用. 激光杂志. 2020(08): 186-190 .
    39. 陆霞,张国华. 基于光纤传感技术的物联网感知数据监测方法. 激光杂志. 2020(09): 72-76 .
    40. 侯旭晖. 基于RFID技术的肉品运输冷链车载监控跟踪路径研究. 自动化与仪器仪表. 2020(10): 168-171 .
    41. 陈星,李战武,徐安,高春庆,胡晓东. 基于数据链和机载多传感器的融合跟踪. 电光与控制. 2020(11): 48-52+100 .
    42. 李晓雯,李建微,陈晓洁. 深度学习技术的三维激光雷达目标分割研究. 激光杂志. 2020(11): 71-75 .

    Other cited types(48)

  • Author Information

    • Chang Xin, tjuchangxin@tju.edu.cn On this SiteOn Google Scholar
      • School of Precision Instrument and Opto-Electronics Engineering, Tianjin University, Tianjin 300072, China
      • Key Laboratory of Opto-Electronics Information Technology of Ministry of Education, Tianjin University, Tianjin 300072, China
    • Corresponding author: Chen Xiaodong, xdchen@tju.edu.cn On this SiteOn Google Scholar

      Chen Xiaodong, E-mail: xdchen@tju.edu.cn

      • School of Precision Instrument and Opto-Electronics Engineering, Tianjin University, Tianjin 300072, China
      • Key Laboratory of Opto-Electronics Information Technology of Ministry of Education, Tianjin University, Tianjin 300072, China
    • Zhang Jiachen On this SiteOn Google Scholar
      • School of Precision Instrument and Opto-Electronics Engineering, Tianjin University, Tianjin 300072, China
      • Key Laboratory of Opto-Electronics Information Technology of Ministry of Education, Tianjin University, Tianjin 300072, China
    • Wang Yi On this SiteOn Google Scholar
      • School of Precision Instrument and Opto-Electronics Engineering, Tianjin University, Tianjin 300072, China
      • Key Laboratory of Opto-Electronics Information Technology of Ministry of Education, Tianjin University, Tianjin 300072, China
    • Cai Huaiyu On this SiteOn Google Scholar
      • School of Precision Instrument and Opto-Electronics Engineering, Tianjin University, Tianjin 300072, China
      • Key Laboratory of Opto-Electronics Information Technology of Ministry of Education, Tianjin University, Tianjin 300072, China
  • Copyright

    The copyright belongs to the Institute of Optics and Electronics, Chinese Academy of Sciences, but the article content can be freely downloaded from this website and used for free in academic and research work.
  • About this Article

    DOI: 10.12086/oee.2019.180420
    Cite this Article
    Chang Xin, Chen Xiaodong, Zhang Jiachen, Wang Yi, Cai Huaiyu. An object detection and tracking algorithm based on LiDAR and camera information fusion. Opto-Electronic Engineering 46, 180420 (2019). DOI: 10.12086/oee.2019.180420
    Download Citation
    Article History
    • Received Date August 03, 2018
    • Revised Date September 05, 2018
    • Published Date June 30, 2019
    Article Metrics
    Article Views(18486) PDF Downloads(6293)
    Share:
  • Related Articles

  • exa/pixel eya/pixel eac/pixel oar/% Rs/%
    本文方法 1.022 3.431 3.724 83.10 80.57
    DCO-X 3.389 6.096 7.852 78.85 80.39
    UKF 5.059 9.443 12.664 66.60 71.42
    PF 23.022 11.884 27.806 56.63 60.61
    View in article Downloads

Bishop R. Intelligent Vehicle Technology and Trends[M]. Boston: Artech House, 2005.

Google Scholar

何树林.浅谈智能汽车及其相关问题[J].汽车工业研究, 2010(9): 28-30.

DOI: 10.3969/j.issn.1009-847X.2010.09.008

Lan Y, Huang J, Chen X. Environmental perception for information and immune control algorithm of miniature intelligent vehicle[J]. International Journal of Control & Automation, 2017, 10(5): 221-232.

http://cn.bing.com/academic/profile?id=ce95fe7d7af5d81b725f40a217be168b&encoded=0&v=paper_preview&mkt=zh-cn

Google Scholar

高德芝, 段建民, 郑榜贵, 等.智能车辆环境感知传感器的应用现状[J].现代电子技术, 2008(19): 151-156.

DOI: 10.3969/j.issn.1004-373X.2008.19.049

Gao D Z, Duan J M, Zheng B G, et al. Application statement of intelligent vehicle environment perception sensor[J]. Modern Electronics Technique, 2008(19): 151-156.

DOI: 10.3969/j.issn.1004-373X.2008.19.049

CrossRef Google Scholar

王世峰, 戴祥, 徐宁, 等.无人驾驶汽车环境感知技术综述[J].长春理工大学学报(自然科学版), 2017, 40(1): 1-6.

DOI: 10.3969/j.issn.1672-9870.2017.01.001

Wang S F, Dai X, Xu N, et al. Overview on environment perception technology for unmanned ground vehicle[J]. Journal of Changchun University of Science and Technology (Natural Science Edition), 2017, 40(1): 1-6.

DOI: 10.3969/j.issn.1672-9870.2017.01.001

CrossRef Google Scholar

Wang Z N, Zhan W, Tomizuka M. Fusing bird view LIDAR point cloud and front view camera image for deep object detection[OL]. arXiv: 1711.06703[cs.CV].

http://www.researchgate.net/publication/321180423_Fusing_Bird_View_LIDAR_Point_Cloud_and_Front_View_Camera_Image_for_Deep_Object_Detection

Google Scholar

Dieterle T, Particke F, Patino-Studencki L, et al. Sensor data fusion of LIDAR with stereo RGB-D camera for object tracking[C]//Proceedings of 2017 IEEE Sensors, 2017: 1-3.

http://ieeexplore.ieee.org/document/8234267/

Google Scholar

Oh S I, Kang H B. Object detection and classification by decision-level fusion for intelligent vehicle systems[J]. Sensors, 2017, 17(1): 207.

http://cn.bing.com/academic/profile?id=4760fd7a61e2e7d9ca7c28fcc5f03372&encoded=0&v=paper_preview&mkt=zh-cn

Google Scholar

厉小润, 谢冬.基于双目视觉的智能跟踪行李车的设计[J].控制工程, 2013, 20(1): 98-101.

DOI: 10.3969/j.issn.1671-7848.2013.01.023

Li X R, Xie D. Design of intelligent object tracking baggage vehicle based on binocular vision[J]. Control Engineering of China, 2013, 20(1): 98-101.

DOI: 10.3969/j.issn.1671-7848.2013.01.023

CrossRef Google Scholar

Granstr m K, Baum M, Reuter S. Extended object tracking: introduction, overview, and applications[J]. Journal of Advances in Information Fusion, 2017, 12(2): 139-174.

http://d.old.wanfangdata.com.cn/NSTLQK/NSTL_QKJJ026837439/

Google Scholar

Li X, Wang K J, Wang W, et al. A multiple object tracking method using Kalman filter[C]//Proceedings of 2012 IEEE International Conference on Information and Automation, 2010: 1862-1866.

https://www.researchgate.net/publication/224156933_A_multiple_object_tracking_method_using_Kalman_filter

Google Scholar

Liu B, Cheng S, Shi Y H. Particle filter optimization: a brief introduction[C]//Proceedings of the 7th Advances in Swarm Intelligence, 2016.

http://cn.bing.com/academic/profile?id=66fff60b9f34d090eea3d99928015481&encoded=0&v=paper_preview&mkt=zh-cn

Google Scholar

Dou J F, Li J X. Robust visual tracking based on interactive multiple model particle filter by integrating multiple cues[J]. Neurocomputing, 2014, 135: 118-129.

DOI: 10.1016/j.neucom.2013.12.049

CrossRef Google Scholar

侯志强, 王利平, 郭建新, 等.基于颜色、空间和纹理信息的目标跟踪[J].光电工程, 2018, 45(5): 170643.

DOI: 10.12086/oee.2018.170643

Hou Z Q, Wang L P, Guo J X, et al. An object tracking algorithm based on color, space and texture inf ormation[J]. Opto-Electronic Engineering, 2018, 45(5): 170643.

DOI: 10.12086/oee.2018.170643

CrossRef Google Scholar

张娟, 毛晓波, 陈铁军.运动目标跟踪算法研究综述[J].计算机应用研究, 2009, 26(12): 4407-4410.

DOI: 10.3969/j.issn.1001-3695.2009.12.002

Zhang J, Mao X B, Chen T J. Survey of moving object tracking algorithm[J]. Application Research of Computers, 2009, 26(12): 4407-4410.

DOI: 10.3969/j.issn.1001-3695.2009.12.002

CrossRef Google Scholar

Zhang Z. A flexible new technique for camera calibration[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22(11): 1330-1334.

DOI: 10.1109/34.888718

CrossRef Google Scholar

蔡喜平, 赵远, 黄建明, 等.成像激光雷达系统性能的研究[J].光学技术, 2001, 27(1): 60-62.

DOI: 10.3321/j.issn:1002-1582.2001.01.016

Cai X P, Zhao Y, Huang J M, et al. Research on the performance of imaging laser radar[J]. Optical Technique, 2001, 27(1): 60-62.

DOI: 10.3321/j.issn:1002-1582.2001.01.016

CrossRef Google Scholar

Rusu R B, Cousins S. 3D is here: point cloud library (PCL)[C]//Proceedings of 2011 IEEE International Conference on Robotics and Automation, 2011: 1-4.

Google Scholar

周琴, 张秀达, 胡剑, 等.凝视成像三维激光雷达噪声分析[J].中国激光, 2011, 38(9): 0908005.

http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=zgjg201109032

Zhou Q, Zhang X D, Hu J, et al. Noise analysis of staring three-dimensinal active imaging laser radar[J]. Chinese Journal of Lasers, 2011, 38(9): 0908005.

http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=zgjg201109032

Google Scholar

官云兰, 刘绍堂, 周世健, 等.基于整体最小二乘的稳健点云数据平面拟合[J].大地测量与地球动力学, 2011, 31(5): 80-83.

http://d.old.wanfangdata.com.cn/Periodical/dkxbydz201105017

Guan Y L, Liu S T, Zhou S J, et al. Obust plane fitting of point clouds based on TLS[J]. Journal of Geodesy and Geodynamics, 2011, 31(5): 80-83.

http://d.old.wanfangdata.com.cn/Periodical/dkxbydz201105017

Google Scholar

邹晓亮, 缪剑, 郭锐增, 等.移动车载激光点云的道路标线自动识别与提取[J].测绘与空间地理信息, 2012, 35(9): 5-8.

DOI: 10.3969/j.issn.1672-5867.2012.09.002

Zou X L, Miao J, Guo R Z, et al. Automatic road marking detection and extraction based on LiDAR point clouds from vehicle- borne MMS[J]. Geomatics & Spatial Information Technology, 2012, 35(9): 5-8.

DOI: 10.3969/j.issn.1672-5867.2012.09.002

CrossRef Google Scholar

Ester M, Kriegel H P, Sander J, et al. A density-based algorithm for discovering clusters a density-based algorithm for discovering clusters in large spatial databases with noise[C]//Proceedings of the 2nd International Conference on Knowledge Discovery and Data Mining, 1996: 226-231.

Google Scholar

朱明清, 王智灵, 陈宗海.基于改进Bhattacharyya系数的粒子滤波视觉跟踪算法[J].控制与决策, 2012, 27(10): 1579-1583.

http://d.old.wanfangdata.com.cn/Periodical/kzyjc201210027

Zhu M Q, Wang Z L, Chen Z H. Modified Bhattacharyya coefficient for particle filter visual tracking[J]. Control and Decision, 2012, 27(10): 1579-1583.

http://d.old.wanfangdata.com.cn/Periodical/kzyjc201210027

Google Scholar

冯驰, 王萌, 汲清波.粒子滤波器重采样算法的分析与比较[J].系统仿真学报, 2009, 21(4): 1101-1105, 1110.

http://d.old.wanfangdata.com.cn/Periodical/xtfzxb200904044

Feng C, Wang M, Ji Q B. Analysis and comparison of resampling algorithms in particle filter[J]. Journal of System Simulation, 21(4): 1101-1105, 1110.

http://d.old.wanfangdata.com.cn/Periodical/xtfzxb200904044

Google Scholar

Geiger A, Lenz P, Stiller C, et al. Vision meets robotics: the KITTI dataset[J]. The International Journal of Robotics Research, 2013, 32(11): 1231-1237.

DOI: 10.1177/0278364913491297

CrossRef Google Scholar

Zhou T R, Ouyang Y N, Wang R, et al. Particle filter based on real-time compressive tracking[C]//Proceedings of 2016 International Conference on Audio, Language and Image Processing, 2016: 754-759.

Google Scholar

石勇, 韩崇昭.自适应UKF算法在目标跟踪中的应用[J].自动化学报, 2011, 37(6): 755-759.

http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=zdhxb201106012

Shi Y, Han C Z. Adaptive UKF method with applications to target tracking[J]. Acta Automatica Sinica, 2011, 37(6): 755-759.

http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=zdhxb201106012

Google Scholar

Milan A, Schindler K, Roth S. Detection- and trajectory-level exclusion in multiple object tracking[C]//Proceedings of 2013 IEEE Conference on Computer Vision and Pattern Recognition, 2013: 3682-3689.

Google Scholar

Related Articles
Show full outline

Catalog

    Cai Huaiyu

    1. On this Site
    2. On Google Scholar
    3. On PubMed
    An object detection and tracking algorithm based on LiDAR and camera information fusion
    • Figure  1
    • Figure  2
    • Figure  3
    • Figure  4
    • Figure  5
    • Figure  6
    • Figure  7
    • Figure  8
    An object detection and tracking algorithm based on LiDAR and camera information fusion
    • exa/pixel eya/pixel eac/pixel oar/% Rs/%
      本文方法 1.022 3.431 3.724 83.10 80.57
      DCO-X 3.389 6.096 7.852 78.85 80.39
      UKF 5.059 9.443 12.664 66.60 71.42
      PF 23.022 11.884 27.806 56.63 60.61
    • Table  1

      Performance comparison of four algorithms

        1/1