-
公开(公告)号:CN110610503B
公开(公告)日:2023-10-27
申请号:CN201910773369.9
申请日:2019-08-21
Applicant: 河海大学常州校区
Abstract: 本发明公开了一种基于立体匹配的电力刀闸三维信息恢复方法,通过对采集的双目立体图像进行立体匹配得到刀闸二维视差图,之后结合双目立体视觉原理,恢复刀闸图像的三维空间信息;所述的立体匹配包括构建匹配代价计算函数和加权水平树结构,在此基础上结合边缘检测进行代价聚集,之后通过视差计算和视差精化得到二维视差图。采用本发明的方法可以有效地提高刀闸匹配的准确率和效率,获得更加精确的刀闸视差图和三维坐标信息。
-
公开(公告)号:CN109887008A
公开(公告)日:2019-06-14
申请号:CN201811016383.6
申请日:2018-08-31
Applicant: 河海大学常州校区
Abstract: 本发明公开了一种基于前后向平滑和O(1)复杂度视差立体匹配方法,分别对左右目图像进行前后向平滑处理,结合颜色和梯度信息构建代价计算函数并计算代价值。在代价聚集阶段,分别对平滑后的左右目图像构建最小生成树,并对代价函数值进行代价聚集,采用WTA策略得到初始视差,通过左右一致性检测判定稳定和不稳定点并得到初始视差置信,同时对不稳定点进行孔洞填充,得到初始视差图,结合左图的颜色信息和初始视差图,得到混合权值,并基于初始视差置信和混合权值,采用水平树结构对置信值进行置信聚集;将置信聚集值进行置信传播,求得最优视差估计值,从而得到最后的稠密视差图;本发明有效地提高立体匹配的准确率和效率。
-
公开(公告)号:CN109887008B
公开(公告)日:2022-09-13
申请号:CN201811016383.6
申请日:2018-08-31
Applicant: 河海大学常州校区
Abstract: 本发明公开了一种基于前后向平滑和O(1)复杂度视差立体匹配方法,分别对左右目图像进行前后向平滑处理,结合颜色和梯度信息构建代价计算函数并计算代价值。在代价聚集阶段,分别对平滑后的左右目图像构建最小生成树,并对代价函数值进行代价聚集,采用WTA策略得到初始视差,通过左右一致性检测判定稳定和不稳定点并得到初始视差置信,同时对不稳定点进行孔洞填充,得到初始视差图,结合左图的颜色信息和初始视差图,得到混合权值,并基于初始视差置信和混合权值,采用水平树结构对置信值进行置信聚集;将置信聚集值进行置信传播,求得最优视差估计值,从而得到最后的稠密视差图;本发明有效地提高立体匹配的准确率和效率。
-
公开(公告)号:CN110610503A
公开(公告)日:2019-12-24
申请号:CN201910773369.9
申请日:2019-08-21
Applicant: 河海大学常州校区
Abstract: 本发明公开了一种基于立体匹配的电力刀闸三维信息恢复方法,通过对采集的双目立体图像进行立体匹配得到刀闸二维视差图,之后结合双目立体视觉原理,恢复刀闸图像的三维空间信息;所述的立体匹配包括构建匹配代价计算函数和加权水平树结构,在此基础上结合边缘检测进行代价聚集,之后通过视差计算和视差精化得到二维视差图。采用本发明的方法可以有效地提高刀闸匹配的准确率和效率,获得更加精确的刀闸视差图和三维坐标信息。
-
公开(公告)号:CN110222634A
公开(公告)日:2019-09-10
申请号:CN201910481323.X
申请日:2019-06-04
Applicant: 河海大学常州校区
Abstract: 本发明公开了一种基于卷积神经网络的人体姿态识别方法,首先获取人体姿态数据集,并对其进行视频切成图像帧的预处理;然后搭建卷积神经网络模型,通过在RELU激励函数输入处引入稀疏性,减少激励函数的不必要输入;接着结合稀疏项优化传统目标损失函数,通过迭代更新参数,对网络进行训练,从而获得最优解;最后,根据训练所得的网络模型,对人体姿态进行识别,输出人体姿态类别。本发明的有益效果是:本发明采用的方法在保持较高姿态识别率的同时,可以加快收敛速度,提高网络的泛化能力。
-
公开(公告)号:CN110222634B
公开(公告)日:2022-11-01
申请号:CN201910481323.X
申请日:2019-06-04
Applicant: 河海大学常州校区
IPC: G06V40/20 , G06V10/774 , G06V10/82 , G06N3/04
Abstract: 本发明公开了一种基于卷积神经网络的人体姿态识别方法,首先获取人体姿态数据集,并对其进行视频切成图像帧的预处理;然后搭建卷积神经网络模型,通过在RELU激励函数输入处引入稀疏性,减少激励函数的不必要输入;接着结合稀疏项优化传统目标损失函数,通过迭代更新参数,对网络进行训练,从而获得最优解;最后,根据训练所得的网络模型,对人体姿态进行识别,输出人体姿态类别。本发明的有益效果是:本发明采用的方法在保持较高姿态识别率的同时,可以加快收敛速度,提高网络的泛化能力。
-
公开(公告)号:CN110322572B
公开(公告)日:2022-09-09
申请号:CN201910504925.2
申请日:2019-06-11
Applicant: 长江勘测规划设计研究有限责任公司 , 河海大学 , 长江地球物理探测(武汉)有限公司
Abstract: 本发明公开了一种基于双目立体视觉的水下涵隧内壁三维信息恢复方法,获取涵隧内壁原始左右目图像,对获取的涵隧内壁原始左右目图像进行极线校正;分别对得到的校正左目图像和校正右目图像进行各向异性扩散,得到滤波左目图像和滤波右目图像;利用灰度梯度共生矩阵直接提取参考图像的纹理特征,并利用FCM聚类方法将参考图像划分为强纹理图像和弱纹理图像两类;对得到的滤波左目图像和滤波右目图像进行纹理特征约束的匹配代价计算;采用加权水平树结构和基于动态规划的能量优化进行代价聚集;进行视差计算和视差精化处理,获取最终的涵隧内壁视差图。本发明能够提高水下涵隧内壁的立体匹配的精度,获得更加精确的涵隧内壁视差图和三维坐标信息。
-
公开(公告)号:CN109146946B
公开(公告)日:2022-01-04
申请号:CN201810995010.1
申请日:2018-08-29
Applicant: 河海大学常州校区
Abstract: 本发明公开了一种图像非局部立体匹配方法,包括结合颜色和梯度信息作为相似性测度函数构建代价计算函数;通过对左右目图像构建最小生成树,并对代价函数值进行代价聚集;采用WTA策略得到初始视差图,通过左右一致性检测得到不稳定点,并进行孔洞填充,接着对视差图进行边缘检测;根据得到的边缘图像,结合剪枝的思想对代价函数值进行进一步的聚集。最后,通过视差求精得到最终的稠密视差图。本发明方法采用RGB彩色信息可以避免灰度图像中相同灰度、不同颜色的像素点产生的误匹配,提高弱纹理区域的匹配精度;实现无纹理区域的邻域在代价聚集阶段也能提供相应的权值支撑,有效地解决了无纹理区域不提供有效代价聚集值的问题。
-
公开(公告)号:CN109146946A
公开(公告)日:2019-01-04
申请号:CN201810995010.1
申请日:2018-08-29
Applicant: 河海大学常州校区
CPC classification number: G06T7/55 , G06K9/6282 , G06T7/337 , G06T7/90
Abstract: 本发明公开了一种图像非局部立体匹配方法,包括结合颜色和梯度信息作为相似性测度函数构建代价计算函数;通过对左右目图像构建最小生成树,并对代价函数值进行代价聚集;采用WTA策略得到初始视差图,通过左右一致性检测得到不稳定点,并进行孔洞填充,接着对视差图进行边缘检测;根据得到的边缘图像,结合剪枝的思想对代价函数值进行进一步的聚集。最后,通过视差求精得到最终的稠密视差图。本发明方法采用RGB彩色信息可以避免灰度图像中相同灰度、不同颜色的像素点产生的误匹配,提高弱纹理区域的匹配精度;实现无纹理区域的邻域在代价聚集阶段也能提供相应的权值支撑,有效地解决了无纹理区域不提供有效代价聚集值的问题。
-
公开(公告)号:CN110322572A
公开(公告)日:2019-10-11
申请号:CN201910504925.2
申请日:2019-06-11
Applicant: 长江勘测规划设计研究有限责任公司 , 河海大学 , 长江地球物理探测(武汉)有限公司
Abstract: 本发明公开了一种基于双目立体视觉的水下涵隧内壁三维信息恢复方法,获取涵隧内壁原始左右目图像,对获取的涵隧内壁原始左右目图像进行极线校正;分别对得到的校正左目图像和校正右目图像进行各向异性扩散,得到滤波左目图像和滤波右目图像;利用灰度梯度共生矩阵直接提取参考图像的纹理特征,并利用FCM聚类方法将参考图像划分为强纹理图像和弱纹理图像两类;对得到的滤波左目图像和滤波右目图像进行纹理特征约束的匹配代价计算;采用加权水平树结构和基于动态规划的能量优化进行代价聚集;进行视差计算和视差精化处理,获取最终的涵隧内壁视差图。本发明能够提高水下涵隧内壁的立体匹配的精度,获得更加精确的涵隧内壁视差图和三维坐标信息。
-
-
-
-
-
-
-
-
-