-
公开(公告)号:CN115361557A
公开(公告)日:2022-11-18
申请号:CN202210992815.7
申请日:2022-08-18
Applicant: 杭州电子科技大学
IPC: H04N19/154 , H04N19/149 , H04N19/176 , H04N19/182 , H04N13/128 , H04N13/161
Abstract: 本发明方法公开了结合注意力机制的立体图像舒适度预测方法。本发明方法首先通过对输入的左、右视点图像分别进行半重叠采样,得到多个图像块对作为模型输入,分别得到低、中、高级特征的相加特征图和相减特征图;然后分别将低、中、高级特征的相加和相减特征图拼接成新的特征块,输入并行双注意力模块进行注意力加权;将低、中、高级特征的通道和空间注意力加权特征拼接成新的特征块,并分别输入对应的次要子网络,最终得到三个次要子网络的输出特征向量,合并三个次要子网络的输出特征向量,并输入用于回归预测的全连接层网络进行舒适度回归预测。本发明方法不仅降低了流程复杂度,还规避了因视差计算不准确带来的影响。
-
公开(公告)号:CN114445618A
公开(公告)日:2022-05-06
申请号:CN202111665038.7
申请日:2021-12-31
Applicant: 杭州电子科技大学
IPC: G06V10/25
Abstract: 本发明方法公开了一种跨模态交互RGB‑D图像显著区域检测方法。本发明方法首先分别从彩色图和深度图中利用VGG16网络提取RGB特征和深度特征;然后在RGB‑D交互模块中RGB特征和深度特征相互纠正,并增强边缘细节;深度权重分配模块中根据深度特征计算处理后的多个特征的融合权重;最后在注意力更新模块中细化融合后的特征。本发明方法将RGB与深度联系起来,通过补充丰富的边界信息来增强目标区域;在多尺度深度权重模块中计算权重,根据深度图的质量来决定其对显著区域的影响程度,消除了低质量深度图带来的负面影响,并提升算法的整体性能。本发明方法可以直接应用在3D图像处理,3D质量评估以及物体识别等工程领域中。
-
公开(公告)号:CN115361557B
公开(公告)日:2025-03-25
申请号:CN202210992815.7
申请日:2022-08-18
Applicant: 杭州电子科技大学
IPC: H04N19/154 , H04N19/149 , H04N19/176 , H04N19/182 , H04N13/128 , H04N13/161
Abstract: 本发明方法公开了结合注意力机制的立体图像舒适度预测方法。本发明方法首先通过对输入的左、右视点图像分别进行半重叠采样,得到多个图像块对作为模型输入,分别得到低、中、高级特征的相加特征图和相减特征图;然后分别将低、中、高级特征的相加和相减特征图拼接成新的特征块,输入并行双注意力模块进行注意力加权;将低、中、高级特征的通道和空间注意力加权特征拼接成新的特征块,并分别输入对应的次要子网络,最终得到三个次要子网络的输出特征向量,合并三个次要子网络的输出特征向量,并输入用于回归预测的全连接层网络进行舒适度回归预测。本发明方法不仅降低了流程复杂度,还规避了因视差计算不准确带来的影响。
-
公开(公告)号:CN115426535B
公开(公告)日:2024-08-27
申请号:CN202211065539.6
申请日:2022-09-01
Applicant: 杭州电子科技大学
IPC: H04N21/81 , H04N13/117 , H04N13/128 , H04N13/15 , H04N13/161 , H04N13/366
Abstract: 本发明方法公开了基于背景分离的RGB‑D视频合成视点空洞掩盖方法。本发明方法以参考彩色图、参考深度图和相机信息为单位,利用加入并行注意力的P‑UNet网络分离彩色图前景、根据参考深度图前景与背景之间的像素突变分离前景,将两种方法的背景结合并使用高斯混合模型构建更干净的背景;使用基于深度和时间一致性的修复方法修复背景;然后根据3D变换公式和相机信息绘制出虚拟视点和虚拟背景,并再次修复虚拟背景;最后使用虚拟背景填充虚拟视点空洞中的缺失像素。本发明避免了修复时产生前景渗透,生成的空洞区域在相邻帧之间更有时间一致性,减少视频播放时的帧闪,提高了视觉质量。
-
公开(公告)号:CN115297316A
公开(公告)日:2022-11-04
申请号:CN202210963297.6
申请日:2022-08-11
Applicant: 杭州电子科技大学
Abstract: 本发明方法公开了语境特征融合的虚拟视点合成图像空洞填充方法。本发明方法首先以参考视图、参考深度图和相机信息为单位,检测出深度图的前景信息并进行前景扩散,然后根据3D变换和参考信息绘制出虚拟视点图像,最后在生成对抗网络中加入具有语境特征融合的注意力生成空洞区域的像素。本发明根据3D‑warpintg、空洞和前景之间的位置关系和注意力机制原理,改进了已有的注意力提取特征的方法,尤其是在视频序列中包含快速运动的物体在修复工作中起重要作用。本发明加强了同一空洞区域的连续特征块之间的联系,消除前景信息对背景区域修复的影响,可以直接应用在3D视频处理,3D视频/图像物体修复等领域。
-
公开(公告)号:CN110769373A
公开(公告)日:2020-02-07
申请号:CN201910911903.8
申请日:2019-09-25
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种车辆位置确定算法。该方法通过利用车联网中的社团关系,使用GPS信号强的车辆的实时位置,利用社团之间的联系,利用车辆节点之间的通信能力、邻居位置关系,对位于GPS信号强的车辆的一定距离范围内、行驶目的地相同或相近的、GPS信号弱的车辆进行位置计算。该方法相比于现有的城市车联网定位方法有更低的定位误差,尤其在一些高架桥、地下车库等GPS信号弱位置的表现优秀,而且在不同交通状况下有更高的定位结果稳定性。
-
公开(公告)号:CN115297316B
公开(公告)日:2024-09-06
申请号:CN202210963297.6
申请日:2022-08-11
Applicant: 杭州电子科技大学
IPC: H04N13/271 , G06T5/50 , G06T7/13 , G06T5/20 , G06N3/0464 , G06N3/08 , G06T5/60
Abstract: 本发明方法公开了语境特征融合的虚拟视点合成图像空洞填充方法。本发明方法首先以参考视图、参考深度图和相机信息为单位,检测出深度图的前景信息并进行前景扩散,然后根据3D变换和参考信息绘制出虚拟视点图像,最后在生成对抗网络中加入具有语境特征融合的注意力生成空洞区域的像素。本发明根据3D‑warping、空洞和前景之间的位置关系和注意力机制原理,改进了已有的注意力提取特征的方法,尤其是在视频序列中包含快速运动的物体在修复工作中起重要作用。本发明加强了同一空洞区域的连续特征块之间的联系,消除前景信息对背景区域修复的影响,可以直接应用在3D视频处理,3D视频/图像物体修复等领域。
-
公开(公告)号:CN115426535A
公开(公告)日:2022-12-02
申请号:CN202211065539.6
申请日:2022-09-01
Applicant: 杭州电子科技大学
IPC: H04N21/81 , H04N13/117 , H04N13/128 , H04N13/15 , H04N13/161 , H04N13/366
Abstract: 本发明方法公开了基于背景分离的RGB‑D视频合成视点空洞掩盖方法。本发明方法以参考彩色图、参考深度图和相机信息为单位,利用加入并行注意力的P‑UNet网络分离彩色图前景、根据参考深度图前景与背景之间的像素突变分离前景,将两种方法的背景结合并使用高斯混合模型构建更干净的背景;使用基于深度和时间一致性的修复方法修复背景;然后根据3D变换公式和相机信息绘制出虚拟视点和虚拟背景,并再次修复虚拟背景;最后使用虚拟背景填充虚拟视点空洞中的缺失像素。本发明避免了修复时产生前景渗透,生成的空洞区域在相邻帧之间更有时间一致性,减少视频播放时的帧闪,提高了视觉质量。
-
公开(公告)号:CN110769373B
公开(公告)日:2021-06-29
申请号:CN201910911903.8
申请日:2019-09-25
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种车辆位置确定算法。该方法通过利用车联网中的社团关系,使用GPS信号强的车辆的实时位置,利用社团之间的联系,利用车辆节点之间的通信能力、邻居位置关系,对位于GPS信号强的车辆的一定距离范围内、行驶目的地相同或相近的、GPS信号弱的车辆进行位置计算。该方法相比于现有的城市车联网定位方法有更低的定位误差,尤其在一些高架桥、地下车库等GPS信号弱位置的表现优秀,而且在不同交通状况下有更高的定位结果稳定性。
-
-
-
-
-
-
-
-