-
公开(公告)号:CN115856923A
公开(公告)日:2023-03-28
申请号:CN202310169015.X
申请日:2023-02-27
Applicant: 北京理工大学深圳汽车研究院(电动车辆国家工程实验室深圳研究院)
Abstract: 本申请涉及一种矿卡卸料用时的测量方法、装置、设备及存储介质,其中方法包括:基于激光雷达,获取矿卡卸料区域的点云信息,得到原始点云信息;通过对原始点云信息进行滤波处理,得到滤波后点云集;从滤波后点云集中识别出车辆的点云信息,得到车辆点云集;基于车辆点云集中的点云数据,创建车厢坐标系;基于车厢坐标系,创建车厢底面网格面,并计算车厢底面网格面中每一网格面的矿料体积;累积每一网格面的矿料体积,得到车厢矿料体积,并基于车厢矿料体积,计算矿卡卸料用时。本发明提高了矿卡卸料用时的测量精准度,进而提高矿卡卸料的效率。
-
公开(公告)号:CN115511970B
公开(公告)日:2023-03-24
申请号:CN202211469663.9
申请日:2022-11-23
Applicant: 北京理工大学深圳汽车研究院(电动车辆国家工程实验室深圳研究院) , 比亚迪汽车工业有限公司
Abstract: 一种面向自主泊车的视觉定位方法,涉及自主泊车领域。对于当前帧图像中任意一个特征点:获取任意一个特征点在空间中对应地图点的状态概率;根据所述地图点的状态概率确定所述地图点在当前帧图像中对应的特征点的初始状态概率;获取所述地图点在当前帧图像中对应的特征点的观测概率;根据所述初始状态概率和所述观测概率确定所述地图点在当前帧图像中对应的特征点的状态概率;根据所述地图点在当前帧图像中对应的特征点的状态概率,更新所述地图点的状态概率,根据所述地图点的状态概率确定所述地图点的地图点类型;获取静态点的地图点构建环境地图,用以视觉定位。
-
公开(公告)号:CN115578709A
公开(公告)日:2023-01-06
申请号:CN202211480590.3
申请日:2022-11-24
Applicant: 北京理工大学深圳汽车研究院(电动车辆国家工程实验室深圳研究院)
Abstract: 一种车路协同的特征级协同感知融合方法和系统,涉及车辆自动驾驶协同感知技术领域。获取车端点云信息和车端点云信息对应的时间戳;对所述车端点云信息进行特征提取以生成车端点云伪图像,对所述车端点云伪图像进行高维特征提取,以生成车端点云特征空间分布;获取路侧端点云特征数据,所述路侧端点云特征数据根据按照所述时间戳进行存储的路侧端点云信息确定;对所述路侧端点云特征数据进行解压缩,利用特征空间矫正将解压缩后的路侧端点云特征数据映射到所述车端点云特征空间分布;将映射到车端点云特征空间分布的路侧端点云特征数据和车端点云特征空间分布进行融合,对融合后的特征信息进行处理,从而实现车路协同感知。
-
公开(公告)号:CN112690794B
公开(公告)日:2022-08-30
申请号:CN202011612628.9
申请日:2020-12-30
Applicant: 北京理工大学深圳汽车研究院(电动车辆国家工程实验室深圳研究院)
IPC: A61B5/18
Abstract: 本发明涉及安全驾驶技术领域,具体涉及一种驾驶员状态检测方法、系统和装置。其中方法包括:通过计算机视觉的方法实时获取驾驶员的多个预先标定的身体部位的位置以及座舱的位置;根据多个身体部位的位置以及座舱的位置,分别计算每个预先标定的身体部位与座舱之间的角度关系;再采用训练好的神经网络模型来检测驾驶员是否疲劳驾驶,由于考虑了多个身体部位与座舱之间的角度关系,使得检测的结果更加准确。另外,该方法和现有的手握式检测方法相比,对现有的车辆改造更小;和现有的眼镜、面部跟踪式方法相比,无需要高精度的传感器,且解决了驾驶员不能佩戴口罩和眼镜的技术问题,使得检测结果更加准确。
-
公开(公告)号:CN113611122B
公开(公告)日:2022-01-14
申请号:CN202111172498.6
申请日:2021-10-09
Applicant: 北京理工大学深圳汽车研究院(电动车辆国家工程实验室深圳研究院)
Abstract: 一种车速引导方法、装置及设备,通过分割目标行驶路径,得到分割后的各行驶路段;预测在当前时刻的第一未来时间段内各交通信号灯的未来通行相位信息和各行驶路段的未来平均车速;根据第一未来时间段内各交通信号灯的未来通行相位信息、第一未来时间段内各行驶路段的未来平均车速、车辆状态方程、第一预设车速约束条件和评价方程,得到第一未来时间段内车辆的第一速度序列;根据第一速度序列,确定车辆在当前时刻的下一时刻的目标引导车速,该方法适用于平路或是坡道、安装交通信号灯或未安装交通信号灯的路段、不同道路车流速度、不同车辆驾驶行为等多种复杂场景,通过车速引导提升了车辆通行效率和能量经济性。
-
公开(公告)号:CN113459841B
公开(公告)日:2021-12-07
申请号:CN202111016159.9
申请日:2021-09-01
Applicant: 北京理工大学深圳汽车研究院(电动车辆国家工程实验室深圳研究院)
Abstract: 本发明涉及汽车自动充电技术领域,具体涉及一种基于无标定双目视觉的自动充电控制方法和装置。其包括:首先系统从相机采集到的图像中,分别提取第一图像特征,再与设定的期望图像特征进行比较,得到第一图像特征误差。接着视觉控制器利用第一图像特征误差和机械当前位姿计算出控制量,驱动机械臂末端向目标运动。系统不断的接收相机采集的图像,从图像中提取特征点,并由视觉控制器计算出下一步所需要的机械臂控制量,获得位姿增量执行。然后系统再采集此时的图像特征,判断图像特征误差是否在允许的误差范围内,如果是,则认为任务完成,工作结束,如果不是,则进入下一轮循环。
-
公开(公告)号:CN113484851B
公开(公告)日:2021-11-16
申请号:CN202111045697.0
申请日:2021-09-08
Applicant: 北京理工大学深圳汽车研究院(电动车辆国家工程实验室深圳研究院)
IPC: G01S7/497
Abstract: 一种车载激光雷达的仿真测试系统,用于测试待测车辆的车载激光雷达,包括场景仿真平台、轴耦合式测功机、仿真回波发射装置、雷达监测结果获取装置、仿真测试模型填充装置、模型比较装置和测试结果输出装置。首先由仿真回波发射装置依据场景仿真平台仿真的道路工况和轴耦合式测功机获取的待测车辆的运动状态发送回波雷达仿真信号,再由仿真测试模型填充装置依据车载激光雷达输出的监测结果点云数据获取填充结果模型,最后依据比较填充结果模型和仿真测试模型的一致性,来获取车载激光雷达检测结果信息。由于通过仿真回波发射装置发射的回波雷达仿真信号对车载激光雷达进行监测,使得整车在环测试系统对车载激光雷达的检测结果更全面、更准确。
-
公开(公告)号:CN113442915A
公开(公告)日:2021-09-28
申请号:CN202110943451.9
申请日:2021-08-17
Applicant: 北京理工大学深圳汽车研究院(电动车辆国家工程实验室深圳研究院)
IPC: B60W30/09 , B60W30/095 , B60W60/00 , B60R11/02
Abstract: 本发明涉及智能天线技术领域,具体涉及一种自动避障天线。其包括:激光雷达模块、毫米波雷达模块、超声波雷达模块、数据处理模块和显示报警模块。其中,激光雷达模块、毫米波雷达模块、超声波雷达模块分别用于在车辆行驶中检测路径上的障碍物信息以得到激光雷达信号、毫米波雷达信号和超声波雷达信号;数据处理模块同于对所述激光雷达信号、毫米波雷达信号和超声波雷达信号进行处理得到当前车辆和/或天线与障碍物的距离,自动避障模块用于根据当前车辆和/或天线与障碍物的距离控制天线和/或车辆运动以避开障碍物。通过本申请的自动避障天线成本低、可靠性高且避障效果的天线。
-
公开(公告)号:CN119049300A
公开(公告)日:2024-11-29
申请号:CN202411175364.3
申请日:2024-08-26
Applicant: 北京理工大学深圳汽车研究院(电动车辆国家工程实验室深圳研究院)
Abstract: 本发明公开了一种考虑道路交通信息的车速规划方法,以应对日益复杂的交通环境。通过V2X通信获取实时车流状态及信号灯配时信息,构建长期车速规划问题,旨在降低能耗和提高通行效率。模型中,基于冲击波理论建立车辆排队模型,描述信号灯路口的动态排队和消散过程,并引入扩展信号灯模型以增强通行状态的准确性。通过分层优化策略,车速规划被分解为离散寻优和连续优化两个部分,确保在信号灯允许的时间内顺畅通行,并在交通流密度超标时调整规划车速,保证合理性。最终,该方法通过动态规划和内点法结合,形成最终的参考车速序列。整体而言,此项技术有效提升了车速规划算法的适应性,显著降低了车辆能耗,为智能交通系统的发展提供了新思路。
-
公开(公告)号:CN119027934A
公开(公告)日:2024-11-26
申请号:CN202411109995.5
申请日:2024-08-14
Applicant: 北京理工大学深圳汽车研究院(电动车辆国家工程实验室深圳研究院)
Abstract: 本发明公开了一种应用于自动驾驶的协同置信度融合感知方法,属于自动驾驶领域,本方法消除了不同智能体之间的感知模型差异,充分利用不同模态传感器数据的优势,避免了为了实现特征统一而强行将不擅长提取BEV特征的视觉图片转换为BEV特征的操作,在充分发挥不同模态数据特征的优势、学习适应于特定模型所擅长特征的优势、以及协同感知自带的协同性优势的基础下,实现更好的协同感知效果。
-
-
-
-
-
-
-
-
-