-
公开(公告)号:CN116958218A
公开(公告)日:2023-10-27
申请号:CN202311018690.9
申请日:2023-08-14
Applicant: 苏州大学 , 苏州市轨道交通集团有限公司
Abstract: 本发明涉及一种标定板角点对齐的点云与图像配准方法,包括将可见光摄像机与激光雷达同位放置,采集放置于不同预设位置处的标定板的场景数据,获取标定板的多组图像数据与点云数据;检测图像数据的标定板角点,根据标定板角点与预设棋盘格端点的相对距离,获取标定板4个角点的2D像素坐标;从点云数据中分割出标定板点云后,投影至统一平面内,再投影到yoz平面;根据雷达线扫原理,设定分类条件,将标定板点云坐标分割成多个聚类区域;根据每个聚类区域中距离横坐标中心最远的点和距离该点最远的另一点,获取4个边缘点,拟合成4个边缘线;计算边缘线的交点,获取3D点云坐标,从而与2D像素坐标,利用EPnP与RANSAC,获取最优变换矩阵,完成点云与图像配准。
-
公开(公告)号:CN116645592B
公开(公告)日:2023-09-29
申请号:CN202310914403.6
申请日:2023-07-25
Applicant: 苏州大学 , 苏州市轨道交通集团有限公司
IPC: G06V20/00 , G06V10/82 , G06V10/764 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及图像处理领域。本发明提出的一种基于深度学习的裂缝检测方法在裂缝检测中采用Swin Mask RCNN算法,它使用了Swin Transformer作为其骨干网络。相比于以往的目标检测模型,Swin Transformer具有更好的特征提取能力和更高的表达能力,使得特征更加丰富,有助于提高裂缝检测的准确度,本发明构建的网络在Swin Transformer网络的滑窗操作之后构建了多层窗口融合模块,使具有裂缝信息的窗口能进行融合,防止裂缝的信息丢失,使其能更好的定位图像中的裂缝信息,在提升位置检测精度的同时降低计算量。
-
公开(公告)号:CN116645592A
公开(公告)日:2023-08-25
申请号:CN202310914403.6
申请日:2023-07-25
Applicant: 苏州大学 , 苏州市轨道交通集团有限公司
IPC: G06V20/00 , G06V10/82 , G06V10/764 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及图像处理领域。本发明提出的一种基于深度学习的裂缝检测方法在裂缝检测中采用Swin Mask RCNN算法,它使用了Swin Transformer作为其骨干网络。相比于以往的目标检测模型,Swin Transformer具有更好的特征提取能力和更高的表达能力,使得特征更加丰富,有助于提高裂缝检测的准确度,本发明构建的网络在Swin Transformer网络的滑窗操作之后构建了多层窗口融合模块,使具有裂缝信息的窗口能进行融合,防止裂缝的信息丢失,使其能更好的定位图像中的裂缝信息,在提升位置检测精度的同时降低计算量。
-
公开(公告)号:CN116402871B
公开(公告)日:2024-05-10
申请号:CN202310314574.5
申请日:2023-03-28
Applicant: 苏州大学
Abstract: 本发明涉及一种基于场景平行要素的单目测距方法、系统及电子设备,方法包括:步骤S1:获取具有场景平行要素的场地的初始图像;步骤S2:对所述初始图像进行预处理;步骤S3:对预处理后的初始图像进行边缘检测,提取边缘检测后图像中场景平行要素的轮廓;步骤S4:根据所述场景平行要素的轮廓划分出感兴趣区域,在所述感兴趣区域内提取在场景中具有平行关系的第一线段和第二线段,其中,所述场景具有平行关系的第一线段和第二线段为场景平行要素;步骤S5:分别在所述第一线段和第二线段上标注若干关键点,基于若干所述关键点建立方程组,根据所述方程组求出关键点对应的深度。本发明的目标测距方法的计算成本较低且准确性较高。
-
公开(公告)号:CN117197779A
公开(公告)日:2023-12-08
申请号:CN202311167125.9
申请日:2023-09-11
Applicant: 苏州大学
IPC: G06V20/58 , G06V10/141 , G06V10/762
Abstract: 本发明涉及一种基于双目视觉的轨道交通异物检测方法,包括将双目摄像机设置于轨道交通屏蔽门上预设位置处;利用双目摄像机采集预设区域在正常状态下与轨道交通运行过程中的双目图像,转换为点云图像,获取模板点云与实时点云;以模板点云为前帧、实时点云为后帧,进行差分,获取表征障碍物的异常点;对异常点进行聚类,得到多个点云簇;基于每个点云簇中异常点的坐标,获取点云簇所对应的障碍物的中心坐标与尺寸。双目摄像机替代雷达等高成本检测设备,降低了检测设备的设备成本与安装精度,提高了采集图像的稳定性;利用双目图像与点云图像对异物进行检测,大大提高了异物检出率,在保证低成本、低安装精度检测设备的同时,提高了检测准确率。
-
公开(公告)号:CN116402871A
公开(公告)日:2023-07-07
申请号:CN202310314574.5
申请日:2023-03-28
Applicant: 苏州大学
Abstract: 本发明涉及一种基于场景平行要素的单目测距方法、系统及电子设备,方法包括:步骤S1:获取具有场景平行要素的场地的初始图像;步骤S2:对所述初始图像进行预处理;步骤S3:对预处理后的初始图像进行边缘检测,提取边缘检测后图像中场景平行要素的轮廓;步骤S4:根据所述场景平行要素的轮廓划分出感兴趣区域,在所述感兴趣区域内提取在场景中具有平行关系的第一线段和第二线段,其中,所述场景具有平行关系的第一线段和第二线段为场景平行要素;步骤S5:分别在所述第一线段和第二线段上标注若干关键点,基于若干所述关键点建立方程组,根据所述方程组求出关键点对应的深度。本发明的目标测距方法的计算成本较低且准确性较高。
-
公开(公告)号:CN117078923B
公开(公告)日:2024-07-16
申请号:CN202310890206.5
申请日:2023-07-19
Applicant: 苏州大学
IPC: G06V10/26 , G06V10/774 , G06V10/82 , G06N3/092
Abstract: 本发明公开了一种面向自动驾驶环境的语义分割自动化方法、系统及介质,该方法具体步骤为:S1:获取数据集并进行数据清洗,划分为训练数据集和测试数据集;S2:将所述训练数据集输入到语义分割模型中进行训练,得到分割图像,对其进行数据评分;S3:将所述数据评分作为轨道状态输入到强化学习模型中训练,得到筛选后的分割图像;S4:汇总所述筛选后的分割图像,检索到其原始数据,输入到所述语义分割模型再训练,将待检测的图像到优化后的语义分割模型中,获得检测结果。本发明有效地解决了语义分割训练数据获取困难、模型训练依赖人工的问题,考虑到铁路无人驾驶环境的特点,对原始语义分割模型进行优化,实现了语义分割模型训练过程的自动化。
-
公开(公告)号:CN117636465A
公开(公告)日:2024-03-01
申请号:CN202311586532.3
申请日:2023-11-24
Applicant: 苏州大学
IPC: G06V40/20 , G06V20/64 , G06V10/20 , G06V10/25 , G06V10/774 , G06V10/80 , G06V10/82 , G06V10/24 , G07C9/10
Abstract: 本发明涉及三维目标检测技术领域,公开了一种基于PointPillars的轨道交通异常行为检测方法及设备,方法包括将训练好的PointPillars网络部署在Jetson TX2NX上,实时采集行人通过闸机处的行为点云数据,发送至Jetson TX2NX;利用PointPillars网络检测行为点云数据,获取基于Oxy平面的点云伪图,进行预处理,提取出3D感兴趣区域;根据3D感兴趣区域,识别出闸机位置,获取闸机平面方程与闸机法向量,并对齐闸机平面与y轴,获取矫正的3D感兴趣区域;将矫正的3D感兴趣区域输入训练好的PointPillars网络中,获取当前通过闸机处的乘客行为类别检测结果。
-
公开(公告)号:CN117078923A
公开(公告)日:2023-11-17
申请号:CN202310890206.5
申请日:2023-07-19
Applicant: 苏州大学
IPC: G06V10/26 , G06V10/774 , G06V10/82 , G06N3/092
Abstract: 本发明公开了一种面向自动驾驶环境的语义分割自动化方法、系统及介质,该方法具体步骤为:S1:获取数据集并进行数据清洗,划分为训练数据集和测试数据集;S2:将所述训练数据集输入到语义分割模型中进行训练,得到分割图像,对其进行数据评分;S3:将所述数据评分作为轨道状态输入到强化学习模型中训练,得到筛选后的分割图像;S4:汇总所述筛选后的分割图像,检索到其原始数据,输入到所述语义分割模型再训练,将待检测的图像到优化后的语义分割模型中,获得检测结果。本发明有效地解决了语义分割训练数据获取困难、模型训练依赖人工的问题,考虑到铁路无人驾驶环境的特点,对原始语义分割模型进行优化,实现了语义分割模型训练过程的自动化。
-
-
-
-
-
-
-
-