-
公开(公告)号:CN117058508A
公开(公告)日:2023-11-14
申请号:CN202311043593.5
申请日:2023-08-18
Applicant: 吉林大学
IPC: G06V10/80 , G06V10/82 , G06V10/75 , G06V10/762
Abstract: 本发明适用于智能驾驶技术领域,提供了一种基于三维信息融合相机和毫米波雷达的目标检测方法,包括以下步骤:数据采集和预处理;数据处理和车辆检测;统一坐标系;构建注意力机制融合神经网络模型AFnet。本发明在决策级融合框架下,通过引入基于深度学习的距离估计方法,扩展了融合特征信息,实现相机和毫米波雷达在三维空间信息上的融合;尤其是在复杂的工况下,能够持续为下层提供检测物体的三维信息,目标检测算法的鲁棒性更强,保证驾驶安全。提出的AFnet模型实现对各传感器的检测目标在三维空间层面进行融合匹配,克服传统约束条件的局限性,提高融合匹配以及目标检测算法的准确性和可靠性。
-
公开(公告)号:CN118711158A
公开(公告)日:2024-09-27
申请号:CN202410883729.1
申请日:2024-07-03
Applicant: 吉林大学
IPC: G06V20/58 , G01B11/02 , G01B11/24 , G06V10/74 , G06V10/80 , G06V10/44 , G06N3/0464 , G06V10/54 , G06V10/56
Abstract: 本发明适用于计算机视觉技术领域,提供了一种基于动态权重多特征融合的模板匹配图像测距方法,包括以下步骤:数据预处理;构建多分支条件神经网络EAnet;加权特征融合:在EAnet中将每个特征向量与其相应的权重相乘,形成加权特征表示,动态调整不同分支的特征权重,以优化特征融合;匹配度计算并验证:在输入图像上构建多尺度空间,对输入图像进行高斯金字塔处理,基于模板图像以及输入图像特征匹配结果向量,确定匹配位置;匹配后进行验证环节。本发明在保证匹配精度的前提下,能够在短时间内捕捉到更多的细节和特征,以目标车辆为导向,对双目摄像头所拍摄图片中的前方特定目标车辆进行模板匹配,大大减少了后续距离估计所用时间。
-
公开(公告)号:CN118917179A
公开(公告)日:2024-11-08
申请号:CN202410941500.9
申请日:2024-07-15
Applicant: 吉林大学
IPC: G06F30/27 , B60W60/00 , B60W50/00 , G06F18/25 , G06N3/092 , G06N3/0464 , G06T5/70 , G06F17/18 , G06V10/26 , G06F111/04
Abstract: 本发明适用于智能驾驶技术领域,提供了一种带有补偿反馈的多模态强化学习车辆决策规划方法,包括以下步骤:强化学习交互环境设计;环境状态的多模态融合;奖励函数设计;构建深度强化学习模型;设计局部轨迹规划器反馈机制。本发明结合了多模态学习和补偿反馈机制,旨在提高学习效率,同时确保决策的安全性和鲁棒性。通过该方法,即使在复杂的交通环境中,自动驾驶车辆也能够做出准确、高效的决策。
-
公开(公告)号:CN118861963A
公开(公告)日:2024-10-29
申请号:CN202410833499.8
申请日:2024-06-26
Applicant: 吉林大学
IPC: G06F18/25 , B60W60/00 , B60W30/18 , B60W40/00 , B60W50/00 , G01S17/931 , G01S17/86 , G06V10/764 , G06V10/44 , G06V10/82 , G06V10/26 , G06N3/006 , G06N3/092
Abstract: 本发明适用于智能驾驶技术领域,提供了一种基于多模态输入的端到端自动驾驶换道决策方法,包括以下步骤:状态信息收集:收集鸟瞰图、语义图像以及自车和周车的状态信息,进行数据处理;构建多模态输入网络:确定深度神经网络的架构;采用卷积神经网络来处理图像数据,采用全连接层来处理状态信息;设计状态空间、动作空间、奖励函数;端到端训练:使用DDPG对构建的多模态输入网络进行端到端的训练。本发明同时利用来自不同传感器的数据,实现了更全面、准确的环境感知和换道决策;将不同模态输入数据进行有效融合,并采用端到端的深度学习网络进行学习和决策,避免了传统方法中多个模块之间的信息丢失和耦合,提高了系统的稳定性和可靠性。
-
公开(公告)号:CN115308732A
公开(公告)日:2022-11-08
申请号:CN202210962797.8
申请日:2022-08-11
Applicant: 吉林大学
Abstract: 本发明适用于车辆传感器和图像识别领域,提供了一种融合毫米波雷达与深度视觉的多目标检测与跟踪方法,包括以下步骤:步骤一、目标检测;步骤二、目标追踪;步骤三、速度估计;步骤四、雷达数据坐标变换;步骤五、雷达数据处理;步骤六、融合和区分。本发明针对深度视觉采用独立的处理算法,在目标识别算法(YOLOV5s)基础上增加追踪算法,能够通过摄像头采集到的信息图像对目标进行快速的识别和追踪,能够起到模拟人的双眼做到可视化识别,同时也避免了因外界环境干扰因素降低系统的鲁棒性和安全性;毫米波雷达使用独立的算法对目标进行检测识别和追踪并对结果融合;算法的快速性,能够满足汽车在高速行驶下的目标识别。
-
公开(公告)号:CN116486359A
公开(公告)日:2023-07-25
申请号:CN202310463049.X
申请日:2023-04-26
Applicant: 吉林大学
IPC: G06V20/56 , G06V10/764 , G06V10/80 , G06V10/82 , G06V10/70 , G06N3/0464 , G01S17/931 , G01S17/86 , G01S17/95 , G01S17/04 , G01W1/00 , G01V8/10
Abstract: 本发明涉及智能车感知以及多模态目标检测领域,具体是一种面向全天候的智能车环境感知网络自适应选择方法,包括以下步骤:(1)数据采集;(2)数据预处理;(3)天气识别;(4)感知网络选择;(5)检测结果输出,本发明面向全天候的智能车环境感知网络自适应选择方法,天气分类网络基于环境粒子散射和光照强度对传感器进行多模态融合,能够准确地判断出天气状况,从而根据当前环境条件实现最优目标检测算法选择,提高了目标检测的准确率和鲁棒性,同时本发明能及时感知环境变化,以确保智能车在全天候下能准确、实时和稳定地进行目标检测。
-
公开(公告)号:CN115352449A
公开(公告)日:2022-11-18
申请号:CN202210969316.6
申请日:2022-08-12
Applicant: 吉林大学
Abstract: 本发明适用于智能汽车驾驶行为决策技术领域,提供了一种融合驾驶风格博弈的智能车交叉口直行速度决策方法,采集周围车辆的行驶状态信息并识别车辆自身及周围车辆的驾驶风格;建立融合驾驶风格的路口直行车辆非合作动态博弈收益矩阵;对动态博弈中每轮阶段博弈的参与者的决策先后顺序进行调整;通过逆向归纳法决策出本轮各车应采取的最优加速度策略;更新车辆状态及环境信息并开始下轮阶段博弈,重复执行上述所有步骤,直到各智能车安全通过交叉口而退出博弈。该方法在保证驾驶安全性的前提下有效地消除了交叉口通行冲突并明确路权,使智能车既安全高效地通过路口,也提高了智能车在路口决策的流畅度和拟人程度,更加符合人类驾驶员的操作习惯。
-
-
-
-
-
-