近景测量检测方法镜头车辆速度(车辆近景测量坐标速度)「近景摄影测量精度」

本文内容来源于《测绘通报》2024年第3期,审图号:GS京(2024)0499号
基于近景摄影测量的单镜头视频车辆速度检测方法
张劭斌, 张志华
兰州交通大学测绘与地理信息学院,甘肃 兰州 730000
基金项目:中央政府指导地方科技发展计划项目(22ZY1QA005);国家自然科学基金(42161069);兰州交通大学项目(201806); 甘肃省重点科技项目(21YF11GA08); 甘肃省科技计划项目(23JRRA870)关键词:YOLOv4;近景摄影测量;单镜头;车速检测
引文格式:张劭斌, 张志华. 基于近景摄影测量的单镜头视频车辆速度检测方法[J]. 测绘通报,2024(3):19-24. DOI: 10.13474/j.cnki.11-2246.2024.0304.
摘要
摘要 :车速检测是城市交通体系中车辆运行安全的重要环节,对维持城市交通安全至关重要
针对现有的多种交通车辆测速方法存在高成本、易受外界条件影响、安装区域限制等问题,本文提出一种成本较低、灵活性高的基于视频图像的车辆识别与测速方法
采用深度学习的方法搭建YOLOv4框架并训练COCO数据集识别车辆,改进识别方法提取识别车辆外接最大矩形框下边界中点的像平面坐标,引入近景摄影测量的方法并对共线方程进行改进,在单摄像机情况下完成对车辆的识别,计算车辆瞬时速度,绘制检测区域内车辆速度曲线,最后采取试验验证方法可行性并进行精度评定
正文
随着科技水平的提高,车辆的快速普及,道路拥堵、能源短缺等严重影响了人民生活水平的提高和城市的正常发展[1]
在交通事故现场和日常交通安全问题中,判断车辆的瞬时车速是鉴定交通事故,维护交通安全的重要手段[2]
如今部分现行的车速监测装置,如激光车速检测装置,不仅架设的成本较高,对架设的位置也有较高的要求,且容易受到外界环境因素影响[3]
还有很大一部分的车辆速度监测装置只适合某些特定位置,对量测的环境有一定要求,不具有普适性[4]
近10年来,深度学习方法极大影响了工作和处理方式,它具有能够准确、快速地感知和理解分析视觉信息的能力[5]
基于近景摄影测量结合深度学习进行图像识别以检测视频图像车速,具有低成本、大范围、高精度、架设简易、安装稳固等诸多优点,可弥补其他车速检测装置高成本、受限于环境、架构复杂等缺点
近年来国内外对交通车辆测速有大量的研究
文献[6]提出了一种基于数字图像处理的摄像机实现车速实时自动监测的新方法,且检测的车速平均误差低于4%
文献[7]分析对比了多种交通车辆测速方法,结果表明,自动交通分类器与VBOX GPS相比,具有更高的精度
文献[8]研究对测量的高程和方向均有一定的要求,量测环境要求较高,不具有普适性
文献[9]基于监控视频的车辆测速,采用改进的NCC算法监测车辆方法较完善,但算法较复杂且在计算车速上采用直接坐标转化不够严谨
文献[10]提出了一种基于YOLOv2的改进车辆检测模型,结果表明,改进的模型精度达94.78%
文献[11]基于YOLO卷积神经网络建立了实时交通监测系统,结果表明,YOLOv4方法在MAVD和GRAM-RTM数据集上具有最高的分类准确率,且在复杂天气的条件下有最高的识别率
文献[12]利用时间插值法,通过计算多个连续帧车速计算其平均速度,得到车辆的精确速度
近景摄影测量是近年发展较快的一种测量方法,在工程、医学、交通、考古建筑等专业领域发挥了巨大的作用[13-18]
有专家研究比较了基于同等数量工人的传统方法和摄影测量方法,结果表明,摄影测量方法比传统方法效率高100~130倍,准确率是传统方法的10倍[19]
文献[20]在共线方程的基础上对计算数据进行压缩,该方法非常适合非公制摄影,且在公制的数据需求量缩减方面有一定的优势
文献[21]使用计算机摄影测量软件摄影建模,结果表明,近景摄影测量是一种非常有效、快速、廉价和安全的方法
文献[22]将摄影测量技术与无人机系统相结合,基于近景摄影测量进行关键坐标点计算与绘制,误差低于0.033 m
现有的视频车辆车速鉴定方法存在成本较高、效率较低、处理过程较为复杂的问题,本文的研究内容主要包括视频车辆识别,视频中车辆像平面坐标提取与基于近景摄影测量的速度计算
在车辆识别方法中基于YOLOv4神经网络和COCO数据集对车辆进行识别,并对该方法进行改进,提取视频中车辆位移坐标信息;最后基于近景摄影测量的计算方法将二维图像信息转换三维坐标,计算固定时间内车辆位移量,即可求得车辆速度
1 试验方法1.1 基于YOLOv4的车辆检测识别1.1.1 视频车辆识别传统的目标检测模型难以适应复杂的环境变化和多变的检测目标
但基于深度学习的目标检测模型具有较高的精度与稳定性[23-24]
在多种基于深度学习的目标检测模型中,YOLOv4模型凭借其稳定的检测效果,较快的检测速度,整体的性能方面在其余的检测方法中脱颖而出,且大量研究表明YOLOv4在目标识别中的表现超越了很多检测模型[25-27]
YOLOv4神经网络是兼具识别精度与识别速度的目标检测算法,在YOLO系列中凭借出色的识别检测效果在车辆识别上被广泛应用[28-30]
YOLOv4的网络结构可以分为3个部分(如图 1所示),主干神经网络结构为CSPDarknet53,颈部主要由SPP结构和PANet结构组成,头部基于YOLOv3结构进行优化改进[31-32]
相较于YOLOv3,YOLOv4在Darknet53的基础上引入CSP结构,优点在于可以增强CNN的识别能力,减少计算量并降低显存使用
图 1 YOLOv4网络结构
COCO数据集是一个大型的物体检测、分割和字幕数据集,主要用于目标检测、分割和图像描述上,该数据集可识别常见物体近91种且识别效果较好[33]
本文引入COCO 2017训练集并将检测内容进行精简优化,主要训练车辆、行人、摩托和自行车
1.1.2 坐标信息提取在相邻帧的图像中获取外接矩形框的位移变量是计算实际车辆位移距离的基本数据,如图 2所示
搭建基本框架后,需要对视频中识别车辆的最大外接矩形框进行坐标提取
在图像处理中像平面坐标系可以自定义坐标系,不会影响计算结果
同样在计算实际车辆位移的空间坐标系也可以自定义坐标系,但需要注意的是,不可以将拍摄点位附近的点作为坐标原点,这在一定程度上影响试验结果
图 2 车辆最大外接矩形框识别
如果对像平面坐标中识别矩形框的每个边界点移动量进行计算会大幅提高计算量,本文采用检测外接矩形框下边界中点位移量代替识别矩形框位移的方法进行计算
选取下边界中点的原因是在单张像片的透视情况下,紧贴地面的识别框下边界是与实际地面坐标偏移量最少的
分别提取每个检测矩形框的左上角坐标(ab)与每个框的长、宽(wh),以单帧图像左上方边界点为原点建立坐标系,则识别矩形框下边界中点坐标为(a+hb+w/2),如图 3所示
图 3 车辆识别框坐标提取
1.2 车辆速度计算车辆位移量的计算是车辆速度检测的核心
采用近景摄影测量的方法计算视频中车辆的位移,在单摄像机拍摄的情况下,基于共线方程进行适当改进,计算得出视频固定帧间车辆位移量,再除以时间间隔求得车辆瞬时速度
1.2.1 单像空间后方交会单像空间后方交会数据源包括像片上4个控制点的像平面坐标,以及实地测量控制点对应的RTK坐标,实际测量情况可以设置多个控制点用于后方交会精度检验,且至少为3个以上
其原因为该方程存在6个未知数,至少3个控制点得到6个方程才可以解算6个未知数
在已知控制点的像平面坐标、大地坐标,以及内方位元素的基础上,基于单像空间后方交会的原理,利用共线方程求解6个外方位元素(XsYsZsφωκ),分别为摄影中心坐标(XsYsZs)及姿态角(φωκ)
共线条件方程像点坐标误差方程为(1)式中,(XYZ)为物点物方空间坐标;(xy)为像点坐标;(x0,y0)为主点坐标;f为像片主距
近景摄影测量中像点坐标是主要的已知观测值,在计算过程中存在观测值的改正数vxvy,因此共线方程为(2)式中,(xy)为像点坐标的观测值;物点在像空间坐标系的坐标为(XYZ); dxdy为近似值的改正数
因为观测值存在误差, 将像点坐标改正数方程按泰勒级数一次项级数展开为(3)当常数项(x)-x,(y)-y为0时,即可判断为误差极小且可忽略不计
误差方程式可简写为(4)根据实际情况给定外方位元素初始值,利用间接平差迭代求得各个改正数,当解算改正数小于限值时,即完成迭代输出改正数
将改正数加至初始值即可输出外方位元素
1.2.2 计算车辆瞬时速度空间后方交会可求得外方位元素,在像片上量测目标点的像片坐标(xy),对共线方程进行转换得到式(5),并测量路面高程坐标带回,即可求出目标点(XY)坐标
(5)由于单张像片只能计算出二维平面坐标,需要对路面高程进行测量,并将路面视为平缓区域,作为一个已知的固定值代入方程计算二维坐标(XY)
计算指定时间间隔内车辆大地坐标变化量,可以得到车辆位移量,根据式(1)即可求出车辆瞬时速度
2 试验过程与结果2.1 控制点布设车速检测试验区域选择校园内较为平坦的某处路面,在试验区域架设并固定单个检测摄像机,记录摄像机一系列参数,并布置多个控制点,保证多个控制点在检测区域内均清晰可见,多余测量的控制点坐标可用于检验计算结果
使用RTK测量并记录所有控制点大地坐标,对每个控制点进行多次测量取平均值,并测量地面高程
布设完成后固定摄像机检测路面试验车辆经过
在路边架设并固定相机,相机焦距为28 mm,控制点布设如图 4所示
图 4 控制点布设
试验区域选用的计算控制点为1、2、3、4号,5、6、7号控制点用于验证计算结果
7个点均多次测量(CGCS2000)并取平均值
在实际计算过程中,已知内外方位元素和像点对应像平面坐标,解算相应物点大地坐标
控制点坐标见表 1
将试验方法进行编程,输入4个控制点的三维坐标与外方位元素初始值,经过空间后方交会实现
单相机检测最多只能获取检测目标的二维平面坐标,在计算过程中还将地面高程作为已知值,计算结果也是控制点的二维平面坐标
计算结果见表 2
2.2 车速检测在完成布设并记录控制点后,可将所有控制点撤除
分别对试验自行车和车辆通过路过时进行识别与速度计算,检测视频为30帧/s,在识别区域内每15帧进行一次速度计算
其中,识别自行车出现人与自行车同时识别的情况时,考虑在实际情况中自行车外接矩阵下边界中点更贴近地面,误差更小,因此计算速度时选用自行车最大外接轮廓
视频检测过程中车俩与自行车识别效果如图 5—图 6所示
当识别目标完全出现在检测区域后才可进行识别,识别完成后输出最大外接识别框的下边界中点像平面坐标,并作为已知值,代入近景摄影测量公式计算速度,并绘制曲线图
模拟车辆与自行车经过道路并进入检测区域获取视频数据,在识别中截取经过道路的自行车与车辆完全出现在检测区域内的3 s内计算车速,并绘制车速变化图
计算出的车速主要反映了车辆的瞬时速度,将瞬时速度相连成一条曲线,表现了在检测时间内车速实时变化
车辆实际车速参考行车记录仪与现场获取自行车车速,并将计算结果与实际车速对比,最终计算结果如图 7所示
图 7 速度检测结果根据计算结果,控制点对应的点位误差平均值为0.126 8 m;与实际车速相比,计算的误差平均值为0.238 8 m/s
存在的点位误差可以分为系统误差与观测误差
其中,观测误差为RTK测量的大地点坐标,存在一定偏差,试验过程中使用了多次测量取平均值的方法,虽可大幅减少偶然观测误差,但无法消除观测偏差
系统误差中影响计算结果最大的为:在单相机计算空间三维坐标的方法需要将高度值设置为已知值,在后续计算车速过程中路面视为完全水平,高程的偏差不可避免,这对结果会造成一定影响
同样造成计算误差的为将识别车辆的最大外接矩形框下边界中点作为位移量的方法不够严谨,无法真实代表实际位移量
3 结语为解决现有车速检测仪器成本高、架设复杂、易受环境条件影响等问题,本文基于YOLOv4神经网络与近景摄影测量,构建了一种基于单相机视频车辆识别与车速检测方法,编程实现识别计算过程,并通过试验验证其可行性,较好地弥补了现有车速检测仪器部分缺点
试验证明,该方法优点在于成本低、灵活性高、使用方便、架设简易且精度较高
但该方法仍有较大的改进空间,在车辆识别方法上可进一步提高识别效率,通过深度学习识别车辆最大外接矩阵判断车辆位移的方法仍可优化等,可在后续研究中继续完善
作者简介
作者简介:张劭斌(1999—),男,硕士生,主要研究方向为近景摄影测量
E-mail:1072706156@qq.com
初审:杨瑞芳
复审:宋启凡
终审:金 君
资讯
近景测量检测方法镜头车辆速度(车辆近景测量坐标速度)
(图片来源网络,侵删)

联系我们

在线咨询:点击这里给我发消息