一种用于房间布局估计的透视图C2P转换和布局生成方法

    公开(公告)号:CN119494148A

    公开(公告)日:2025-02-21

    申请号:CN202411935291.3

    申请日:2024-12-25

    Abstract: 本发明公开了一种用于房间布局估计的透视图C2P转换和布局生成方法。包括:获取目标室内场景图像;将目标室内场景图像输入深度学习模型,输出预测的完整深度图、全局平面可见性置信度图、墙面类别和平面语义标签;对平面进行分类,定义均匀分布在透视图像上的锚点,对于主导平面,计算其对应分割区域的形心坐标,指定给平面的标签对应于最接近该形心的锚点的索引从而得到一个粗略的布局分割掩模。从完整的深度图和平面可见性置信度中生成平面深度参数。利用C2P转换技术生成平面深度图,通过顺序平面深度图集成准确地估计房间的平面布局。本发明使得C2P变换能灵活地应用于透视图像,为平面深度重建提供了强大的技术支持。

    基于角点深度预测的室内场景3D布局估计方法和装置

    公开(公告)号:CN118521601B

    公开(公告)日:2025-01-24

    申请号:CN202410971204.3

    申请日:2024-07-19

    Inventor: 张伟东 李丽 刘颖

    Abstract: 本公开的实施例提供了基于角点深度预测的室内场景3D布局估计方法和装置,应用于室内场景的三维布局技术领域。所述方法包括获取目标室内场景图像;将目标室内场景图像输入深度学习模型,输出预测的角点热力图、角点深度值和嵌入向量;根据角点热力图生成角点坐标;对嵌入向量进行聚类得到粗略分割图,并使用粗略分割图的每个平面区域进行膨胀和腐蚀操作,得到目标区域;根据所述角点坐标与所述目标区域确定目标角点;根据所述目标角点的角点深度值进行平面拟合,得到每个平面对应的目标深度图;对目标深度图进行深度图相交计算,得到布局深度图。在不受因裁剪导致位置变动的影响下,得到更为准确的室内布局深度图。

    基于空间松弛Transformer的图像超分辨率重建方法、装置及介质

    公开(公告)号:CN118840262A

    公开(公告)日:2024-10-25

    申请号:CN202410797761.8

    申请日:2024-06-20

    Abstract: 本发明公开了基于空间松弛Transformer的图像超分辨率重建方法、装置及介质。该方法包括:输入低分辨率图像;提取浅层特征;提取多尺度深层特征;补充多尺度纹理特征;将前一个多尺度纹理补充块的输出与第(n‑2)个STB的输出作为输入,输入到下一个多尺度纹理补充块中;重复以上操作直到第一个STB块的输出被复用;将最后一个多尺度纹理补充块的输出输入到重建模块中;输出最终的超分辨率重建图像。该方法采用了基于空间松弛Transformer的多尺度纹理补充块,向深层次的语义特征图中补充纹理,同时增加了跨窗口信息交互,有效消除了重建图像中的栅格效应,进而实现了更高质量的图像超分辨率重建。

    基于图文融合的多模态情感分析方法及系统

    公开(公告)号:CN117115534A

    公开(公告)日:2023-11-24

    申请号:CN202311076887.8

    申请日:2023-08-24

    Abstract: 本发明公开了一种基于图文融合的多模态情感分析方法及系统,包括:引入STN并进行图像特征提取,获取图像特征向量;使用Bi‑LSTM模型对文本向量进行序列建模,捕捉句子中单词的语义信息和上下文信息,并且将不同位置的单词信息结合起来,提取更具表达能力和区分度的文本特征;同时确定文本关键词对应的图像关键特征,以及图像关键特征对应的文本关键词,基于图像特征表示向量和文本特征表示向量进行模态融合。本发明分别在图像和文本特征提取中加入了空间变换网络模型STN和Bi‑LSTM模型,准确提取多模态数据的特征。同时本发明结合文本表示向量对图像中的关键特征映射进行定位,利用多模态数据之间的交互信息,提供更好的鲁棒性和泛化能力。

    基于坐标注意力和BDC度量的小样本图像分类方法、系统、装置及介质

    公开(公告)号:CN117095222A

    公开(公告)日:2023-11-21

    申请号:CN202311076911.8

    申请日:2023-08-24

    Abstract: 本发明公开了一种基于坐标注意力和BDC度量的小样本图像分类方法、系统、装置及介质,包括:采集图像并对所采集的图像进行划分,得到训练集、验证集和测试集;构建深度模型框架;基于训练集对深度模型进行训练,当训练次数达到最大训练次数阈值,深度模型在验证集上的性能达到预设的要求或不再显著提升时,停止训练,获取最优化的深度模型;基于最优化的深度模型和元学习N‑way K‑shot的方式对测试集进行分类预测,评估分类准确率。本发明通过引入空间信息和位置信息的坐标注意力,同时结合利用图像边缘分布和联合分布之间差异的BDC度量方式能帮助模型更好地完成小样本图像分类任务,可以有效提高分类精度。

    消除时域抖动效应的量化参数级联方法

    公开(公告)号:CN114866773B

    公开(公告)日:2023-02-28

    申请号:CN202210497536.3

    申请日:2022-05-09

    Abstract: 一种消除时域抖动效应的量化参数级联方法,由确定帧运动区域、确定帧运动区域空域能量扩散因子、确定视频运动区域时域能量扩散因子、确定帧运动区域的基本单元、确定视频运动区域纹理复杂度、确定帧运动区域像素的平均背景亮度、确定视频运动区域运动速度、确定时域抖动效应临界感知阈值、确定视频帧的量化参数步骤组成。由于本发明采用了所述的步骤,解决了现有技术没有考虑视频中运动物体的边界变化对时域抖动效应感知影响的技术问题,解决了现有技术部适用于最新视频编码标准H.266/VVC的技术问题。本发明具有消除时域抖动效应有效、编码感知率失真性能好等优点,可用于视频编码、通信技术领域。

    一种车牌图像的超分辨率重建方法和装置

    公开(公告)号:CN110298791B

    公开(公告)日:2022-10-28

    申请号:CN201910610927.X

    申请日:2019-07-08

    Abstract: 本公开是一种车牌图像的超分辨率重建方法和装置,涉及图像处理领域,应用于终端。该方法包括:首先通过第一卷积层对待处理的低分辨率车牌图像进行浅层特征提取;其次,通过依次串联的N个相同的残差采样块和第二卷积层进行深度特征提取,残差采样块内构建的不同分支充分利用了特征的尺度和深度信息;最后,通过重建模块对特征提取模块得到的多个深层特征图进行逐级倍数放大,根据多个高分辨率特征图得到重建的目标高分辨率车牌图像。本公开通过对低分辨率车牌图像进行超分辨率重建处理,解决了提取的特征信息丢失的问题,使重建的车牌避免字符模糊,字符粘连,信息不丰富等情况,提高了车牌图像的辨识度。

    消除时域抖动效应的量化参数级联方法

    公开(公告)号:CN114866773A

    公开(公告)日:2022-08-05

    申请号:CN202210497536.3

    申请日:2022-05-09

    Abstract: 一种消除时域抖动效应的量化参数级联方法,由确定帧运动区域、确定帧运动区域空域能量扩散因子、确定视频运动区域时域能量扩散因子、确定帧运动区域的基本单元、确定视频运动区域纹理复杂度、确定帧运动区域像素的平均背景亮度、确定视频运动区域运动速度、确定时域抖动效应临界感知阈值、确定视频帧的量化参数步骤组成。由于本发明采用了所述的步骤,解决了现有技术没有考虑视频中运动物体的边界变化对时域抖动效应感知影响的技术问题,解决了现有技术部适用于最新视频编码标准H.266/VVC的技术问题。本发明具有消除时域抖动效应有效、编码感知率失真性能好等优点,可用于视频编码、通信技术领域。

Patent Agency Ranking