基于自注意力机制的4D毫米波三维目标检测方法及系统

    公开(公告)号:CN113610044A

    公开(公告)日:2021-11-05

    申请号:CN202110955241.1

    申请日:2021-08-19

    Applicant: 清华大学

    Abstract: 本发明公开了一种基于自注意力机制的4D毫米波三维目标检测方法,包括:实时采集4D毫米波雷达点云数据并进行预处理;将预处理后的4D毫米波雷达点云数据输入预先训练好的三维目标检测模型,输出目标检测结果;三维目标检测模型包括:鸟瞰视图体素化模块、立柱自注意力特征提取模块、CNN主干网络和PRN检测头;鸟瞰视图体素化模块,用于对4D毫米波雷达点云数据在鸟瞰图视角进行体素化操作,提取整个空间的特征信息F;立柱自注意力特征提取模块,用于利用特征信息F,基于自注意力机制提取点云全局特征,生成一个BEV伪图像;CNN主干网络,用于对BEV伪图像进行特征提取,输出特征图;PRN检测头,用于对特征图进行目标检测,输出3D目标检测结果。

    一种基于注意力机制的视觉与激光雷达多模态数据融合方法

    公开(公告)号:CN113065590B

    公开(公告)日:2021-10-08

    申请号:CN202110326528.8

    申请日:2021-03-26

    Applicant: 清华大学

    Abstract: 本发明公开了一种基于注意力机制的视觉与激光雷达多模态数据融合方法,所述方法包括:同时采集自动驾驶车辆的激光雷达点云数据以及相机RGB图像;对激光雷达点云数据以及相机RGB图像进行预处理;通过球坐标变换将点云数据转换成距离图像;将距离图像和RGB图像输入预先建立和训练好的距离图像融合模型,输出最终的融合特征图;所述距离图像融合模型采用自注意机制对距离图像和RGB图像进行融合;将最终的融合特征图与带有坐标信息的距离图像连接到一起,通过空间坐标转换从二维图像还原到空间点云的表示形式。本发明的方法使用自注意机制有效地融合了多源信息,使两种数据优势互补,提高了3D目标检测算法的准确性。

    基于深度典型相关分析的视觉-激光雷达融合方法及系统

    公开(公告)号:CN113111974A

    公开(公告)日:2021-07-13

    申请号:CN202110506552.X

    申请日:2021-05-10

    Applicant: 清华大学

    Abstract: 本发明涉及自动驾驶技术领域,尤其涉及基于深度典型相关分析的视觉‑激光雷达融合方法及系统。所述方法包括:同步采集路面的RGB图像和点云数据;对RGB图像进行特征提取得到RGB特征;对点云数据依次进行坐标系转换和栅格化处理,然后进行特征提取,得到点云特征;将点云特征和RGB特征同时输入预先建立和训练好的融合模型,输出特征增强的融合点云特征,所述融合模型使用相关分析结合深度神经网络将RGB特征融合到点云特征;将融合点云特征输入预先建立好的目标检测网络,实现目标检测。本发明创新地使用深度典型相关分析方法利用相似度计算矩阵来融合点云和图像两种不同模态特征,使其在必要速度妥协的情况下,提升精度。

    一种基于互信息的自适应多传感器数据融合方法及系统

    公开(公告)号:CN112270251B

    公开(公告)日:2021-07-06

    申请号:CN202011156482.1

    申请日:2020-10-26

    Applicant: 清华大学

    Abstract: 本发明公开了一种基于互信息的自适应多传感器数据融合方法,所述方法包括:接收相机采集路面的RGB图像;接收激光雷达同步采集该路面的点云数据;对点云数据进行预处理得到稠密点云数据;将RGB图像和稠密点云数据输入预先建立和训练好的融合网络,输出数据融合结果;所述融合网络,用于计算输入数据的特征张量与预期特征的互信息,根据互信息分配输入数据的融合权重,进而根据融合权重输出数据融合结果。本发明的方法引入了互信息这一信息论工具,计算输入数据的提取特征与融合网络的预期特征之间的相关性,可以合理、客观地量化数据质量的好坏与信息量的大小,有严格的数学方法作为理论支撑,具有一定的可解释性。

    施工机械设备活动智能化识别方法及装置

    公开(公告)号:CN112883894A

    公开(公告)日:2021-06-01

    申请号:CN202110244349.X

    申请日:2021-03-05

    Abstract: 本发明提供了一种施工机械设备活动智能化识别方法及装置,包括:将获取的监控任务分解成若干个子任务;根据全部子任务确定所需的主传感器和辅助传感器;通过主传感器上传的数据执行子任务,并根据子任务的执行需求确定是否启用辅助传感器;对子任务执行过程中发生的异常情况进行实时预警。本申请通过在施工机械设备上装设传感器,将接收到的任务拆分为若干个子任务,同时利用向量公式评估主传感器采集的数据是否能够满足子任务的需求,当低于阈值时,启用辅助传感器获取施工机械设备的原子动作信息来完成活动监督任务,实现了智能全面监控施工现场的功能,而且解决了主传感器和辅助传感器之间的配合问题。

    基于图像检测的动作识别数据集生成方法及装置

    公开(公告)号:CN112784813A

    公开(公告)日:2021-05-11

    申请号:CN202110187621.5

    申请日:2021-02-18

    Abstract: 本发明提供了一种基于图像检测的动作识别数据集生成方法及装置,基于图像检测的动作识别数据集生成方法包括:确定预先采集的动作视频中每一帧中所有待检测目标的检测矩形;在所述每一帧中的每一待检测目标的检测矩形中进行标记;按照第一预设范围对所述每一帧进行裁剪;组装裁剪后的多帧,以生成动作视频数据或图像序列。本发明提供的基于图像检测的动作识别数据集生成方法及装置,较好的解决了现有技术中,针对建立识别目标动作专用的视频数据集耗时耗力的问题。

    基于注意力机制的融合网络车道线检测方法及终端设备

    公开(公告)号:CN111950467A

    公开(公告)日:2020-11-17

    申请号:CN202010817467.0

    申请日:2020-08-14

    Applicant: 清华大学

    Abstract: 本发明公开了基于注意力机制的融合网络车道线检测方法及终端设备,所述方法包括:同步采集路面的自然图像和点云数据;将自然图像和点云数据输入预先建立和训练好的融合网络,输出车道检测结果;所述融合网络采用加入时序帧和注意力机制对点云数据和自然图像进行信息融合处理。本发明使用连续帧来提高检测网络性能,以应对标记丢失、车辆遮挡等复杂情况;通过Skip Connection将低维度特征与高维度特征进行拼接,以弥补随着网络深度增加而不断丢失的图像细节信息,利用Decoder还原图像得到最终结果;该融合网络大大提高了车道线的检测性能,并可在各种复杂环境进行检测。

    基于视觉与激光雷达多层次融合的车道检测方法及系统

    公开(公告)号:CN111274976B

    公开(公告)日:2020-09-18

    申请号:CN202010074226.1

    申请日:2020-01-22

    Applicant: 清华大学

    Abstract: 本发明公开了基于视觉与激光雷达多层次融合的车道检测方法及系统,该方法通过在车辆上安装激光雷达和车载相机实现,所述方法包括:对获得的点云数据和视频图像进行标定;融合点云数据的高度信息、反射强度信息和视频图像的RGB信息构造点云聚类模型,基于点云聚类模型获得车道点云,对车道点云进行最小二乘法拟合得到车道曲面,获得第一车道候选区域;将点云数据中的反射强度信息与视频图像的RGB信息融合,得到四通道的道路信息;输入预先训练好的语义分割网络3D‑LaneNet,输出第二车道候选区域的图像;将第一车道候选区域和第二车道候选区域进行融合,将两个车道候选区域的并集作为最终的车道区域。本发明的方法提高了复杂道路场景下车道检测的准确性。

Patent Agency Ranking