-
公开(公告)号:CN114463399B
公开(公告)日:2024-10-29
申请号:CN202210079982.2
申请日:2022-01-24
申请人: 武汉大学
IPC分类号: G06T7/38
摘要: 针对事件相机与传统光学相机观测系统存在的视场差异与时间不同步的问题,本发明提供了一种事件相机与传统光学相机的时空匹配方法。该方法基于场景结构相似性指标分别将事件相机输出的图像帧、事件流数据与传统光学相机输出的图像帧数据进行匹配搜索,得到最佳匹配视场区域与时差,从而实现事件相机与传统光学相机的时空匹配。本发明利用了事件流的高时间分辨率优势,将时间连续的事件流数重表示为与传统相机帧率同步的事件帧序列,通过提取和匹配场景结构特征实现高精度的时间匹配,解决了相机之间由于输出帧率不同步导致无法有效时间匹配的问题。
-
公开(公告)号:CN112819742B
公开(公告)日:2022-05-13
申请号:CN202110159784.2
申请日:2021-02-05
申请人: 武汉大学
摘要: 本发明提出了一种基于卷积神经网络的事件场合成孔径成像方法。首先构建多个视角下场景事件数据集和场景无遮挡图像数据集;然后将多个视角场景事件数据集通过相机的多视角几何关系映射到合成孔径成像平面,得到多个视角重聚焦到参考视角的事件数据集;再将多个视角下重聚焦到参考视角的事件数据集输入至卷积神经网络得到重构后无遮挡视觉图像,结合场景无遮挡图像、重构后无遮挡视觉图像构建损失函数,通过ADAM迭代优化器训练卷积神经网络;最后将待重构场景影像通过训练后卷积神经网络得到待重构场景影像对应的无遮挡的目标图像。本发明综合利用了事件相机和卷积神经网络的优势,实现了密集遮挡与极端光照条件下的高质量视觉图像重建。
-
公开(公告)号:CN114862732B
公开(公告)日:2024-04-26
申请号:CN202210422694.2
申请日:2022-04-21
申请人: 武汉大学
IPC分类号: G06T5/50 , G06T5/60 , G06N3/0464 , G06N3/0455 , G06N3/08
摘要: 本发提供了一种融合事件相机与传统光学相机的合成孔径成像方法,该方法融合了两种相机在合成孔径成像应用中的优势,通过构建基于脉冲神经网络和卷积神经网络的神经网络架构,构建事件流与图像帧之间的桥梁,并重建出高质量的无遮挡目标图像帧,完成在多种密集程度遮挡场景中的高质量穿透成像任务。本发明综合利用了事件相机与传统光学相机的优势,以及使用了神经网络强大的的学习能力,从而实现目标在多种密集遮挡场景中的高质量图像重建,进一步增强了合成孔径成像技术的鲁棒性与可应用性。
-
公开(公告)号:CN111798513B
公开(公告)日:2022-07-05
申请号:CN202010545454.2
申请日:2020-06-16
申请人: 武汉大学
摘要: 本发明提供一种基于事件相机的合成孔径成像方法及系统,包括输入事件流数据、导轨速度以及相机内参矩阵,并初始化事件相机正极性阈值和事件相机负极性阈值、初始亮度图像、对焦深度以及尺度因子;设事件相机在运动过程中产生了若干个事件点,每个事件点都映射到虚拟对焦平面,得到相应的虚拟对焦平面事件点信息;根据所得虚拟对焦平面事件点信息,进行非对称自适应图像重建,得到基于事件相机的合成孔径成像结果。本发明利用事件点的产生特性,将产生的事件点映射到图像平面,解决传统方法像素叠加造成模糊的问题,通过非对称自适应的图像重建,获得良好的成像结果。
-
公开(公告)号:CN114463399A
公开(公告)日:2022-05-10
申请号:CN202210079982.2
申请日:2022-01-24
申请人: 武汉大学
IPC分类号: G06T7/38
摘要: 针对事件相机与传统光学相机观测系统存在的视场差异与时间不同步的问题,本发明提供了一种事件相机与传统光学相机的时空匹配方法。该方法基于场景结构相似性指标分别将事件相机输出的图像帧、事件流数据与传统光学相机输出的图像帧数据进行匹配搜索,得到最佳匹配视场区域与时差,从而实现事件相机与传统光学相机的时空匹配。本发明利用了事件流的高时间分辨率优势,将时间连续的事件流数重表示为与传统相机帧率同步的事件帧序列,通过提取和匹配场景结构特征实现高精度的时间匹配,解决了相机之间由于输出帧率不同步导致无法有效时间匹配的问题。
-
公开(公告)号:CN112819742A
公开(公告)日:2021-05-18
申请号:CN202110159784.2
申请日:2021-02-05
申请人: 武汉大学
摘要: 本发明提出了一种基于卷积神经网络的事件场合成孔径成像方法。首先构建多个视角下场景事件数据集和场景无遮挡图像数据集;然后将多个视角场景事件数据集通过相机的多视角几何关系映射到合成孔径成像平面,得到多个视角重聚焦到参考视角的事件数据集;再将多个视角下重聚焦到参考视角的事件数据集输入至卷积神经网络得到重构后无遮挡视觉图像,结合场景无遮挡图像、重构后无遮挡视觉图像构建损失函数,通过ADAM迭代优化器训练卷积神经网络;最后将待重构场景影像通过训练后卷积神经网络得到待重构场景影像对应的无遮挡的目标图像。本发明综合利用了事件相机和卷积神经网络的优势,实现了密集遮挡与极端光照条件下的高质量视觉图像重建。
-
公开(公告)号:CN114862732A
公开(公告)日:2022-08-05
申请号:CN202210422694.2
申请日:2022-04-21
申请人: 武汉大学
摘要: 本发提供了一种融合事件相机与传统光学相机的合成孔径成像方法,该方法融合了两种相机在合成孔径成像应用中的优势,通过构建基于脉冲神经网络和卷积神经网络的神经网络架构,构建事件流与图像帧之间的桥梁,并重建出高质量的无遮挡目标图像帧,完成在多种密集程度遮挡场景中的高质量穿透成像任务。本发明综合利用了事件相机与传统光学相机的优势,以及使用了神经网络强大的的学习能力,从而实现目标在多种密集遮挡场景中的高质量图像重建,进一步增强了合成孔径成像技术的鲁棒性与可应用性。
-
公开(公告)号:CN112987026A
公开(公告)日:2021-06-18
申请号:CN202110244649.8
申请日:2021-03-05
申请人: 武汉大学
摘要: 本发明涉及一种基于混合神经网络的事件场合成孔径成像算法,包括事件数据集的构建、事件流的重对焦方法、混合神经网络的构建与训练和视觉图像的重建。其中,通过事件相机的移动从多视角捕获场景的亮度信息后,即可将收集到的事件流进行重对焦,使得目标产生的有效事件点在时空平面上成功对齐,而遮挡物产生的噪声事件点仍处于离焦状态。随后通过构建和训练脉冲神经网络与卷积神经网络组成的混合神经网络(SNN‑CNN)模型,可从重对焦后的事件场中恢复出高质量的无遮挡目标图像。本发明综合利用了事件相机的低延时、高动态范围优势与混合神经网络的时空数据处理能力,实现了密集遮挡以及极端光照环境下的目标重建,并具有较好的视觉效果。
-
公开(公告)号:CN111798513A
公开(公告)日:2020-10-20
申请号:CN202010545454.2
申请日:2020-06-16
申请人: 武汉大学
摘要: 本发明提供一种基于事件相机的合成孔径成像方法及系统,包括输入事件流数据、导轨速度以及相机内参矩阵,并初始化事件相机正极性阈值和事件相机负极性阈值、初始亮度图像、对焦深度以及尺度因子;设事件相机在运动过程中产生了若干个事件点,每个事件点都映射到虚拟对焦平面,得到相应的虚拟对焦平面事件点信息;根据所得虚拟对焦平面事件点信息,进行非对称自适应图像重建,得到基于事件相机的合成孔径成像结果。本发明利用事件点的产生特性,将产生的事件点映射到图像平面,解决传统方法像素叠加造成模糊的问题,通过非对称自适应的图像重建,获得良好的成像结果。
-
-
-
-
-
-
-
-