-
公开(公告)号:CN102682477B
公开(公告)日:2015-04-08
申请号:CN201210150207.8
申请日:2012-05-16
Applicant: 南京邮电大学
IPC: G06T17/00
Abstract: 本发明公开了一种基于结构先验的规则场景三维信息提取方法。本发明包括:利用PMVS算法产生三维空间有向点云;利用无监督聚类算法对三维有向点的方向分布进行分类处理,得到空间显著平面法线方向;根据三维空间点云的坐标及其平面法线方向,计算三维空间点云在其平面法线方向上的位置偏移,并对这些三维点云的位置偏移聚类得到空间显著平面的偏移量;分别对各二维图像进行预分割,并对分段区域边缘做平滑处理,获得各二维图像的区域分段信息;以三维空间显著平面为标注,图像分段区域为节点,构建马尔科夫随机场模型,并基于全局优化方法求解该模型,以获取各视点图像中的分段共面深度信息。本发明方法具有更高的准确性及较低的计算复杂度。
-
公开(公告)号:CN103236082A
公开(公告)日:2013-08-07
申请号:CN201310154164.5
申请日:2013-04-27
Applicant: 南京邮电大学
Abstract: 本发明公开了一种面向捕获静止场景的二维视频的准三维重建方法,属于计算机视觉的三维视频重建领域。本发明方法包括以下步骤:步骤A、对二维视频中的每一帧,提取双视点图像对;步骤B、分别对各双视点图像对进行极线校正;步骤C、采用基于全局优化的双目立体匹配方法对极线校正后的各双视点图像对分别求解全局最优视差图;步骤D、对全局最优视差图进行反校正,得到二维视频中各帧相应的视差图;步骤E、将步骤D得到的视差图依所对应的视频帧次序拼接为视差图序列,并对视差图序列进行优化;步骤F、结合所提取的各视频帧及其对应视差图,采用DIBR方法恢复虚拟视点图像,并将虚拟视点图像拼接为虚拟视点视频。本发明计算复杂度低,简单易行。
-
公开(公告)号:CN119228802A
公开(公告)日:2024-12-31
申请号:CN202411754912.8
申请日:2024-12-03
Applicant: 南京邮电大学
IPC: G06T7/00 , G06V20/64 , G06V20/70 , G06V10/25 , G06V10/26 , G06V10/44 , G06V10/77 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/084 , G06N3/048
Abstract: 本申请公开了多生牙自动检测方法、装置、存储介质及电子设备。该方法包括:获取三维图像,将三维图像进行预处理得到多个图像块;将图像块输入到训练好的两阶段深度注意力网络中进行识别,得到三维图像中包含多生牙的概率值;其中,两阶段深度注意力网络包括定位子网络和分类子网络;将图像块输入到训练好的两阶段深度注意力网络中进行识别,包括:将图像块输入到定位子网络中得到矩形定位框,将矩形定位框输入到分类子网络中得到图像块中包含多生牙的概率值。本申请能够加快多生牙的检测速度,提升分类精度。
-
公开(公告)号:CN118918545A
公开(公告)日:2024-11-08
申请号:CN202411036278.4
申请日:2024-07-31
Applicant: 南京邮电大学
IPC: G06V20/54 , G06N3/0464 , G06N3/0495 , G06N3/082 , G06V10/44 , G06V10/80 , G06N3/047 , G06V10/774 , G06V10/82 , G06N3/048
Abstract: 本发明公开了一种基于改进YOLO模型的轻量化货车检测方法及系统,该方法包括收集各类货车不同拍摄角度图像构建数据集并标注;应用Ghost卷积于YOLOv5s主干网络;构建GhostC3模块用于YOLOv5s主干特征提取网络;利用目标尺度多样特性构建多尺度上下文特征聚焦金字塔模块MCFP;利用目标低分辨率特性构建多尺度自适应感受野增强模块SRFEM;最后自建货车数据集输入至所述改进后的网络,获得货车检测结果。本发明能够以高精度实时检测货车目标。
-
公开(公告)号:CN118736205A
公开(公告)日:2024-10-01
申请号:CN202411028539.8
申请日:2024-07-30
Applicant: 南京邮电大学
IPC: G06V10/25 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于改进YOLO模型的低分辨率小目标检测方法及系统,该方法包括收集低分辨率小目标图像并构建数据集;利用数据集图像低分辨率特性构建通道空间混合特征突出模块CSHM,将通道空间混合特征增强模块应用于YOLOv7tiny的主干网络和颈部网络连接处;进一步根据图像中小目标特性提出自适应交并比计算方法AIoU,构建隐式高效解耦头结构IEDH,将AIOU用作YOLOv7tiny中的交并比计算方法,并利用IEDH对其输出特征图进行解耦合;最后将所述低分辨率小目标图像输入至所述改进后的网络,获得低分辨率小目标检测结果;本发明能够以高精度实时检测低分辨率小目标。
-
公开(公告)号:CN117408908A
公开(公告)日:2024-01-16
申请号:CN202311725816.6
申请日:2023-12-15
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于深度神经网络的术前与术中CT图像自动融合方法,涉及计算机视觉预测技术领域,包括:采集脊柱微创术前和术后同一病人的三维C形臂CT图像,对图像的腰椎区域分别进行标注;根据标注的图像构建基于注意力机制的三维U型分割网络模型,利用模型从术前和术后CT图像中自动分割出腰椎区域;利用快速全局点云配准算法对术前和术后CT图像中自动分割出的腰椎区域进行配准,并获得术前CT图像和术后CT图像间的形变矩阵;通过形变矩阵将术前CT图像转换到术后CT图像的坐标空间;本发明实现源点云和目标点云的快速精确配对,能够应用于基于图像引导的脊柱微创手术系统,以提高手术前和手术后C形臂CT图像自动融合精度。
-
公开(公告)号:CN113643393B
公开(公告)日:2023-06-16
申请号:CN202110718003.9
申请日:2021-06-28
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于引导图滤波的CBCT图像金属伪影校正方法,包括以下步骤:将原始投影数据FDK重建为原始CBCT图像;在原始CBCT图像中分割出金属CBCT图像区域;对金属CBCT图像区域进行正投影得到金属投影数据区域;根据投影数据区域对原始投影数据进行插值;将插值后的投影数据进行引导图滤波并与原始数据进行拼接;将拼接后的投影数据进行FDK重建得到无金属的CBCT图像;将原始CBCT图像的金属区域与无金属的CBCT图像进行拼接,得到最终的CBCT图像金属伪影校正结果;本发明提出的金属伪影校正方法可以得到很好的校正结果,同时减少次生伪影的引入,保证了处理速度。
-
公开(公告)号:CN111325099B
公开(公告)日:2022-08-26
申请号:CN202010069598.5
申请日:2020-01-21
Applicant: 南京邮电大学
IPC: G06V40/20 , G06V10/764 , G06V10/82 , G06N3/04 , G06K9/62
Abstract: 本发明公开一种基于双流时空图卷积神经网络的手语识别方法及系统,首先,将手语动作视频切分为视频帧,提取手语动作视频片段中人物上半身和手部骨架点,并构建全局和局部图数据;利用双流时空图卷网络分别提取全局和局部时空特征,经过特征拼接得到全局‑局部特征;同时,将视频对应文本通过分词处理之后编码为词向量,并采用特征变换将二者映射到同一隐空间,利用动态时间规整算法进行模型训练;对全局‑局部特征序列,采用自注意力机制编解码网络对其进行序列化建模,解码器的输出采用softmax分类器获得每个视频片段所对应的单词,并组成相应文本句子。本发明能提高生成文本句子的准确率,在字幕生成、人机交互等场景中具有重要的应用价值。
-
公开(公告)号:CN109544530B
公开(公告)日:2022-08-16
申请号:CN201811375758.8
申请日:2018-11-19
Applicant: 南京邮电大学
Abstract: 本发明公开了一种X射线头影测量图像结构特征点自动定位方法,包括双层回归森林模型训练:将从训练图像中提取的外观特征作为输入,训练第一层回归森林模型;将第一层回归森林模型作用于训练图像,获得训练图像对应的第一层偏移距离图;将从第一层偏移距离图中提取的外观特征和训练图像的外观特征作为输入,训练第二层回归森林模型;利用训练好的双层回归森林模型,对待检测图像结构特征点定位。本发明构建双层回归森林模型,通过双层回归森林模型对X射线头影测量图像结构特征点进行自动定位,相较于传统的人工定位,提高了效率,解决了时间,同时大大提高了准确性。
-
公开(公告)号:CN114882412A
公开(公告)日:2022-08-09
申请号:CN202210511572.0
申请日:2022-05-11
Applicant: 南京邮电大学
IPC: G06V20/40 , G06V10/80 , G06V10/82 , G06V10/764 , G06V10/774 , G06K9/62 , G06F40/30 , G06F40/242 , G06F16/35
Abstract: 本发明公开了一种基于视觉和语言的标注关联型短视频情感识别方法及系统。首先分别提取出视频流在空间维和时间维上的低层视觉特征,将其输入多头自注意力网络,与视觉信息的高层情感特征在特征层予以融合,计算出短视频视觉模态的情感分值矩阵;接着使用词向量工具将短视频的文本内容转化为词向量并利用情感词典增强其情感极性;再从其中提取语言信息所包含的高层语义特征,并计算出短视频文本模态的情感分值矩阵;最后将情感分值矩阵与加权系数矩阵相乘,得到短视频的情感分类结果。本发明可以有效融合短视频视觉和语言的情感信息,兼顾视频流的空时变化和文本内容的前后语义关系,突破单模态情感分类的局限性,提高短视频情感分类的准确率。
-
-
-
-
-
-
-
-
-