基于深度卷积神经网络的车载视觉系统自身运动确定方法

    公开(公告)号:CN109242003B

    公开(公告)日:2021-01-01

    申请号:CN201810917338.1

    申请日:2018-08-13

    IPC分类号: G06K9/62 G06T7/246

    摘要: 本发明公开了一种基于深度卷积神经网络的车载视觉系统自身运动确定方法,所述基于深度卷积神经网络的车载视觉系统包括深度卷积神经网络模块,包括S1,采集车载视觉系统的参数配置信息和图像信息;S2,对图像预处理,并将预处理后的时序图像在深度通道叠加,形成神经网络输入图像;S3,深度卷积神经网络模块根据接收的所述神经网络输入图像信息确定车载视觉系统自身的运动信息;S4,输出确定的车载视觉系统自身运动信息。采用本发明,降低了成本,提高了车辆自身运动的确定精度。

    基于特征时序相关性的自动驾驶视觉感知优化方法

    公开(公告)号:CN109934096B

    公开(公告)日:2020-12-11

    申请号:CN201910060991.5

    申请日:2019-01-22

    摘要: 本发明涉及一种基于特征时序相关性的自动驾驶视觉感知优化方法,包括深度卷积神经网络检测架构改进:添加输出目标自相关层,输出目标时序一致性评价指标,作为可选网络分支输出;目标检测训练数据库改进方法;离线训练过程改进方法包括深度卷积神经网络训练损失函数改进:添加自相关损失函数,并辅以一定权重系数加入网络总损失函数,参与主干特征部分训练。本发明在训练和推理阶段对检测算法输出结果的稳定性进行优化,有效提升视觉目标检测结果分类以及位置回归的稳定性,从而改进相关目标距离以及相对运动估算的准确性与稳定性,为自动驾驶应用提供更加准确与有效的目标感知结果,提升整体视觉感知算法性能,满足汽车自动驾驶的需求。

    一种基于车载360度环视输入的辅助驾驶预警方法

    公开(公告)号:CN108944668B

    公开(公告)日:2020-11-17

    申请号:CN201810561025.7

    申请日:2018-06-01

    IPC分类号: B60Q9/00 B60R1/00

    摘要: 一种基于车载360度环视输入的辅助驾驶预警方法,采用辅助驾驶预警系统,所述辅助驾驶预警系统包括:环视鱼眼相机,用于采集车辆周围图像信息;车载传感器单元,用于采集车辆信号;控制模块,与所述环视鱼眼相机连接,与所述车载传感器单元连接,接收车辆信号和/或图像信息,并进行分析处理,输出预警信号;以及,预警提醒模块,接收预警信号;所述辅助驾驶预警方法,包括:所述控制模块根据车载传感器单元采集车辆信号进行工作模式使能判断;计算开门预警区域预进入时间TTZ1,变道预碰撞区域预进入时间TTZ2,跟车时间HDT,预压线时间TLC;根据设定预警阈值,预警提醒模块执行相应预警策略。

    一种基于双俯视相机与后轴转向的车辆路径跟随方法

    公开(公告)号:CN106295651B

    公开(公告)日:2019-11-05

    申请号:CN201610597074.7

    申请日:2016-07-25

    发明人: 缪其恒

    IPC分类号: G06K9/46 G05D1/02

    摘要: 本发明公开了一种基于双俯视相机与后轴转向的车辆路径跟随方法,利用转载于车辆牵引点(最前端)与跟随点(最末端)的双俯视单目相机,通过对路面特征的匹配,直接测量跟随点相对于牵引点的侧向偏移量。然后将此测量值作为后轴自动转向系统的控制器输入量,计算车辆后轴的转向角。基于上述测量状态量,算出车辆跟随点(最尾端)的侧向路径跟随偏移量。然后将此偏移量作为后轴自动转向系统的控制器输入量,计算车辆后轴的转向角。本方案可以提高车辆的通过性,适用于所有的长轴距车辆。

    一种车载360度环视显示方法及系统

    公开(公告)号:CN107066954B

    公开(公告)日:2019-07-23

    申请号:CN201710180080.7

    申请日:2017-03-23

    IPC分类号: G06K9/00 G06T3/40

    摘要: 本发明公开了一种车载360度环视显示方法及系统。该方法包括以下步骤:S1:投影模块将每个相机采集到的图像通过查查找表进行视点变换,投影到车辆俯视图;S2:使用曝光增益算法进行四个相机图像的光学对齐;S3:使用拼接算法对相邻相机采集到的图像的拼接缝进行拼接,得到车辆俯视拼接图。本发明在某一位置的拼接缝在相邻时序差异不大时,复用上一帧拼接缝,大大降低了噪声对拼接缝计算的影响,以此来增加稳定性,另外直接使用上一帧拼接缝也减少了拼接缝计算的时间,提高了算法效率。

    用于低速泊车驾驶场景的多传感融合定位方法

    公开(公告)号:CN109945858A

    公开(公告)日:2019-06-28

    申请号:CN201910213302.X

    申请日:2019-03-20

    IPC分类号: G01C21/16 G01C21/28 B60W30/06

    摘要: 本发明公开了一种用于低速泊车驾驶场景的多传感融合定位方法,包括如下步骤:1.语义地图定义:针对泊车应用场景,基于定位算法能力与接口,定义离线地图数据格式,主要包括全局路由所需的道路数据以及定位所需的路标数据;2.多感知融合里程计:主要包括视觉以及轮速计或惯性导航传感器数据融合,基于运动学卡尔曼滤波的车辆行驶里程估算;3.视觉路标检测与匹配:主要包括提取离线语义地图所包含的先验路标信息,构造相应的场景语义描述,以匹配地图语义信息;4.定位修正:根据视觉路标匹配信息,进行定位里程修正,形成里程与定位信息的闭环修正。本发明具有能够控制系统成本,提升系统可行性和定位精确度高的特点。

    一种车载视觉系统场景视深确定方法

    公开(公告)号:CN109299656A

    公开(公告)日:2019-02-01

    申请号:CN201810917032.6

    申请日:2018-08-13

    摘要: 本发明公开了一种车载视觉系统场景视深确定方法,所述车载视觉系统包括深度视深卷积神经网络模块,其特征在于,所述方法包括:S1,采集车载视觉系统的参数配置信息和图像信息;S2,对图像预处理,并将预处理后的时序图像在深度通道叠加,形成神经网络输入图像;S3,深度视深卷积神经网络模块根据接收的所述神经网络输入图像信息确定视觉场景视深图;S4,输出视觉场景视深图,按照视觉系统实际车辆安装参数,微调视深图输出以补偿安装位置变化,使得输出视深坐标系与车辆坐标系方向对齐。采用本发明,增强测距系统的鲁棒性。

    一种基于车载后视广角相机的盲区预警系统及方法

    公开(公告)号:CN108674313A

    公开(公告)日:2018-10-19

    申请号:CN201810570155.7

    申请日:2018-06-05

    IPC分类号: B60Q9/00

    摘要: 本发明公开了一种基于车载后视广角相机的盲区预警方法,其特征在于,包括:S1,获取车载后视广角相机输入的图像;S2,根据车载后视广交相机输入的图像,检测进入盲区ROI区域内的动态目标,并生成动态目标感兴趣的区域;S3,在动态目标感兴趣区域内,生成动态目标的正面特征,并在正面特征图谱上进行限定尺寸以及高宽比的滑窗搜索,根据分类器对动态目标感兴趣区域进行验证;S4,跟踪进入盲区ROI区域内的动态目标,确定动态目标的速度Vel和到达预警区域的距离D;S5,根据动态目标的相对速度和到达预警区域的距离,确定是否发出进行预警。另外,还公开了一种基于车载后视广角相机的盲区预警系统。采用本发明,降低额外盲区视觉系统所引入的硬件成本。

    一种基于360度环视输入的防碰撞预警系统及方法

    公开(公告)号:CN108638999A

    公开(公告)日:2018-10-12

    申请号:CN201810472011.8

    申请日:2018-05-16

    IPC分类号: B60R21/013 B60Q9/00

    摘要: 一种基于360度环视输入的防碰撞预警系统,包括:环视鱼眼相机,用于采集车辆周围图像信息;车载传感器单元,用于采集车辆信号;控制模块,与所述环视鱼眼相机连接,与所述车载传感器单元连接,接收车辆信号和/或图像信息,并进行分析处理,输出预警信号;以及,预警提醒模块,接收预警信号。本发明主要针对车辆前后方横向通过的行人/自行车,车辆右侧盲区同向通行的自行车在与本车可能发生碰撞的情况,通过视频智能分析与处理,将行人防碰撞保护功能集成于环视系统中,以辅助显示和预警的方式提升360度环视系统相关应用的主动/辅助安全性能。