-
公开(公告)号:CN118722718A
公开(公告)日:2024-10-01
申请号:CN202410801392.5
申请日:2024-06-20
Applicant: 燕山大学
Abstract: 本发明提供一种基于安全强化学习的环形交叉口多车协同决策方法,包括:搭建构成多智能体强化学习模型;每个智能体通过环形交叉口自动驾驶仿真环境获取自身车辆状态信息以及感知范围内其他周围车辆的状态信息;构建自注意力网络,将每个智能体的状态空间作为输入,输出经过注意力加权后的状态空间;将经过注意力加权后的状态空间输入action网络和critic网络,输出所有智能体的执行动作;基于优先级列表对所有智能体的执行动作进行行车风险评估,得到修正后的安全动作,继续优化多智能体强化学习模型至完全收敛;应用完全收敛的多智能体强化学习模型进行环形交叉口多车协同决策。本发明的方法提高了环形交叉口的整体交通效率和安全性。
-
公开(公告)号:CN116795720A
公开(公告)日:2023-09-22
申请号:CN202310853356.9
申请日:2023-07-12
Applicant: 燕山大学
Abstract: 本申请涉及无人驾驶技术领域,公开了一种基于场景的无人驾驶系统可信性评价方法及装置。所述方法根据无人驾驶系统的具体待测功能,选取场景元素和功能测试需求进行随机组合,生成功能测试场景库;并根据功能测试需求,确定无人驾驶系统的评价指标及评价指标的经验值;基于功能测试场景库和经验值进行仿真测试,获取无人驾驶系统在评价指标下的失效率;利用失效率构建动态贝叶斯网络可信性评价模型,并利用动态贝叶斯网络可信性评价模型输出获得无人驾驶系统的状态概率;最后根据状态概率计算无人驾驶系统的可信性及组件重要度,可实现对无人驾驶系统的可信性评价。
-
公开(公告)号:CN116052125A
公开(公告)日:2023-05-02
申请号:CN202310072830.4
申请日:2023-01-31
Applicant: 燕山大学
IPC: G06V20/58 , G06V10/774
Abstract: 本申请提供一种车载视觉传感器预期功能测试场景数据集构建方法,该方法包括:获取车辆的驾驶场景数据;获取车载视觉传感器对驾驶场景采集的图像的原始信息;根据采集的图像的质量,确定主客观图像信息;根据所述主客观图像信息,确定车载传感器预期功能安全驾驶场景的类别;将若干图像的驾驶场景数据、原始信息、主客观图像信息、车载传感器预期功能安全驾驶场景的类别作为车载视觉传感器预期功能驾驶场景的数据集。该方案可以为自动驾驶车载视觉传感器预期功能极限数据集的构建提供理论方法。
-
公开(公告)号:CN115892039A
公开(公告)日:2023-04-04
申请号:CN202211513165.X
申请日:2022-11-29
Applicant: 燕山大学
Abstract: 本发明涉及一种自动驾驶汽车对场景适应度的预测方法,该方法首先采用主成分分析法对危险场景数据进行降维,提取出关键要素。之后兼顾安全与效率两个维度,根据选取的评价指标,用层次分析法计算自动驾驶汽车对高风险场景的适应度并分级。最后将得到的场景关键要素和场景适应度等级输入到基于循环神经网络构建的预测模型中,预测出下一刻自动驾驶系统对场景的适应度,得出一种自动驾驶汽车对场景适应度的预测模型。本发明方法能够提升自动驾驶技术安全性及高等级自动驾驶快速落地提供了理论依据和技术支撑。
-
公开(公告)号:CN114529889B
公开(公告)日:2024-11-15
申请号:CN202210109527.2
申请日:2022-01-28
Applicant: 燕山大学
IPC: G06V20/59 , G06V10/44 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/0442 , G06N3/08 , B60W40/08 , B60W50/14 , B60W50/16 , B60W60/00
Abstract: 本发明涉及一种分心驾驶行为识别方法,所述方法包括下述步骤:获取人机共驾接管状态下驾驶人的分心驾驶时序图像数据;利用训练好的第一模型或训练好的第二模型首先获取时序图像数据的空间特征,在空间特征的基础上获取时空特征;将所述时空特征与空间特征进行融合加强,进而获得用于分心驾驶行为类别识别分心驾驶行为特征。所述方法能够实现准确识别驾驶人的分心驾驶行为、降低误接管风险,从而提升行车安全性。
-
公开(公告)号:CN114677665B
公开(公告)日:2024-08-16
申请号:CN202210227332.8
申请日:2022-03-08
Applicant: 燕山大学
IPC: G06V20/59 , G06V10/762 , G06V10/25 , G06V10/764
Abstract: 本申请提供一种驾驶场景注意力量化方法、装置、电子设备及存储介质,该述方法包括:获取驾驶人的注视区域;驾驶人包括若干驾驶风格的驾驶人;利用高斯混合模型对注视区域进行划分,得到若干注视兴趣区域;基于注视兴趣区域,计算各个驾驶风格的驾驶人的权重;根据各个驾驶风格的驾驶人的权重,确定各个注视兴趣区域的注视概率。该方案构建的注意力量化规律,准确性高,可重复性强,考虑更全面,更具有覆盖性。
-
公开(公告)号:CN117671621A
公开(公告)日:2024-03-08
申请号:CN202311364094.6
申请日:2023-10-20
Applicant: 燕山大学
Abstract: 本申请涉及自动驾驶环境感知技术领域,具体而言,涉及一种基于空间感知增强的轻量级三维目标检测方法,一定程度上可以解决现有的低延迟无锚框检测方法空间特征感知能力较差,难以应用到自动驾驶汽车中的问题。所述的基于空间感知增强的轻量级三维目标检测方法包括:读取待测点云及标签;将所述待测点云送入三维目标检测模型中,得到估计值;在训练阶段,计算所述估计值与标签之间的损失;在验证或测试阶段,将估计值解码为目标的空间位置、尺寸、偏航角度、类别及置信度。
-
公开(公告)号:CN115167134A
公开(公告)日:2022-10-11
申请号:CN202210846015.4
申请日:2022-07-19
Applicant: 燕山大学
IPC: G05B13/04
Abstract: 本发明涉及一种基于多维奖励Q学习的模型预测加权因子动态调整方法,属于自动驾驶车辆轨迹跟踪控制领域。解决了采用模型预测控制原理设计轨迹跟踪控制器时对加权因子的选取不当会降低自动驾驶车辆轨迹跟踪稳定性和精确性以及行驶安全性的问题。本发明通过强化学习中Q学习方法,训练了加权因子最优调整策略,可实时动态调整模型预测轨迹跟踪控制器的加权因子,从而实时优化自动驾驶车辆的轨迹跟踪性能,以减少在每个采样时刻下车辆实际位置与预期轨迹之间的误差,提高自动驾驶车辆的轨迹跟踪精度和行驶稳定性、舒适性。
-
公开(公告)号:CN114715186A
公开(公告)日:2022-07-08
申请号:CN202210283058.6
申请日:2022-03-22
Applicant: 燕山大学
IPC: B60W60/00
Abstract: 本申请提供一种人机共驾接管请求时间的确定方法、装置、设备及介质,该方法包括:当听觉模块监测到接管请求后,视觉模块识别外部环境视频中的环境对象,确定环境对象的对象属性;根据环境对象的对象属性与驾驶经验属性,确定手部和脚部的模拟动作;利用动作模块模拟手部和脚部的模拟动作,得到改变后外部环境;根据改变后外部环境,确定改变后手部和脚部的模拟动作,直至判定外部环境安全为止,模拟得到时间动作序列;根据时间动作序列,确定接管请求时间。该方案得到的接管请求时间,可以为接管中提前接管时间的设置提供依据。
-
公开(公告)号:CN114677665A
公开(公告)日:2022-06-28
申请号:CN202210227332.8
申请日:2022-03-08
Applicant: 燕山大学
IPC: G06V20/59 , G06K9/62 , G06V10/762 , G06V10/25 , G06V10/764
Abstract: 本申请提供一种驾驶场景注意力量化方法、装置、电子设备及存储介质,该述方法包括:获取驾驶人的注视区域;驾驶人包括若干驾驶风格的驾驶人;利用高斯混合模型对注视区域进行划分,得到若干注视兴趣区域;基于注视兴趣区域,计算各个驾驶风格的驾驶人的权重;根据各个驾驶风格的驾驶人的权重,确定各个注视兴趣区域的注视概率。该方案构建的注意力量化规律,准确性高,可重复性强,考虑更全面,更具有覆盖性。
-
-
-
-
-
-
-
-
-