-
公开(公告)号:CN113850818B
公开(公告)日:2024-11-01
申请号:CN202110992746.5
申请日:2021-08-27
申请人: 北京工业大学
IPC分类号: G06T7/11 , G06T7/13 , G06N3/08 , G06N3/0464
摘要: 本发明公开了一种混合2D和3D卷积神经网络的耳部CT影像前庭分割方法,包括构建数据集、基于多种深度特征融合策略的2DCNN分割网络设计以及3DDenseUNet分割网络设计三个步骤。2D网络采用编码器‑解码器结构作为主干网络提取耳部CT影像的前庭特征;然后整合DenseNet‑BC和U‑Net网络架构,搭建一个3DDenseUNet网络,融合低层空间信息和高层语义信息,最终实现前庭的精准分割。针对前庭结构设计的分割网络可以获得比通用的分割方法更优的分割性能,提高放射科医护人员的工作效率和质量。本发明能够准确进行耳部关键结构的自动分割,帮助医生完成大量重复性的工作,有效地减轻医生的负担。
-
公开(公告)号:CN114240994B
公开(公告)日:2024-07-19
申请号:CN202111302041.2
申请日:2021-11-04
申请人: 北京工业大学
IPC分类号: G06T7/246 , G06V10/80 , G06V10/82 , G06N3/0464
摘要: 本发明提供一种目标跟踪方法、装置、电子设备及存储介质。其中,目标跟踪方法包括:获取初始特征图像;所述初始特征图像包括目标对象;将所述初始特征图像输入到分类及回归网络中,分别得到分类特征图像和回归特征图像;对所述分类特征图像和所述回归特征图像进行位置信息处理,得到位置特征图像;对所述位置特征图像进行相关性处理,得到相关特征图像;基于所述相关特征图像,得到所述目标对象的目标跟踪信息。本发明能够提高目标跟踪的精确度。
-
公开(公告)号:CN114037011B
公开(公告)日:2024-05-28
申请号:CN202111316442.3
申请日:2021-11-08
申请人: 北京工业大学
IPC分类号: G06V10/764 , G06V10/774 , G06F17/16 , G06F17/18
摘要: 本发明公开了一种中医舌色噪声标注样本的自动识别与清洗方法,通过对比预测标签与人工标注标签的概率关系,采用两种不同的筛选策略,实现对舌色噪声标注数据的准确、自动识别与清洗。本发明将人工标注标签称为硬标签,将通过模型得到的标签预测概率称为软标签,将预测概率最大值对应的标签称为伪标签。本发明利用深度网络模型进行样本标签的预测,进而进行噪声样本的自动识别和筛选,结果更加客观、准确。另外,整个过程没有专家的参与,不需要耗费人力,同时降低了人为带来噪声的可能性,提高了噪声标注样本识别的准确率;在模型训练前进行数据集的处理,使得处理后的数据集可以适用于其他分类模型。
-
公开(公告)号:CN113850760B
公开(公告)日:2024-05-28
申请号:CN202110998724.X
申请日:2021-08-27
申请人: 北京工业大学
IPC分类号: G06T7/00 , G06T7/11 , G06V10/774 , G06F17/16
摘要: 一种耳部CT影像前庭检测方法属于计算机视觉和医学影像处理领域。首先,专门设计了一个专用的前庭分割网络,可以进行前庭的准确分割。然后基于前庭分割结果,采用主成分分析算法进行前庭横径的自动测量。本发明设计了一种专用的分割网络,对前庭结构进行准确分割和检测。
-
公开(公告)号:CN113516058B
公开(公告)日:2024-05-24
申请号:CN202110680032.0
申请日:2021-06-18
申请人: 北京工业大学
IPC分类号: G06V20/40 , G06V10/74 , G06V10/82 , G06N3/0464 , G06N3/042 , G06N3/08 , G06V40/10 , G06N3/045
摘要: 本发明涉及一种直播视频群组异常活动检测方法、装置、电子设备及介质,该方法包括使用卷积神经网络提取直播视频帧序列中个体的深度时空特征,并使用FPN和PAN网络对直播视频帧序列中的个体进行定位,以得到位置参数;将个体的深度时空特征和位置参数作为输入以构建图卷积模块,从而提取群组活动关系,并利用图卷积模块对时间上下文信息进行编码,以得到不同时间尺度的群组活动码字;将不同时间尺度的群组活动码字与已知类别的群组活动码字进行匹配,以判定是否发生群组异常活动和/或发生群组异常活动的时间段。本发明通过提取深度时空特征和定位,以及进行时间上下文编码,可以提高群组异常活动检测的速度和准确度,降低检测的成本。
-
公开(公告)号:CN117935332A
公开(公告)日:2024-04-26
申请号:CN202410019754.5
申请日:2024-01-05
申请人: 北京工业大学
摘要: 本发明提供了一种基于空间拓扑约束网络的人脸解析方法,针对人脸数据集存在遮挡、原始图像模糊的问题,本发明关注定位图像中显著性区域的研究。该方法首先将自建人脸数据集图像裁剪成最优尺寸,作为网络的输入,通过阶段聚合注意力模块有效地从所有其他通道图以及相关的空间位置中获取特征响应,更好地融合深度特征的高层和低层信息,并且增强特征表达能力;通过空间拓扑约束网络生成人脸每个类区域的空间分布以及边缘分布,有效地提高了边界语义识别能力和处理难以区分的类别以及遮挡能力;通过解析解码子网络,在联合损失函数下预测得到精细化人脸解析结果。该方法有效对人脸遮挡、赘生物等异常情况,解析结果更为鲁棒,且边缘定位准确性更高。
-
公开(公告)号:CN113888754B
公开(公告)日:2024-04-26
申请号:CN202110959048.5
申请日:2021-08-20
申请人: 北京工业大学
IPC分类号: G06V10/774 , G06V10/80 , G06V10/25 , G06T7/90 , G08G1/017
摘要: 一种基于雷达视觉融合的车辆多属性识别方法属于计算机视觉领域和智能交通领域。首先,根据数据集中雷达检测到的车辆信息(车辆与视觉摄像机之间的距离)提取车辆感兴趣区域,将其构建成单通道二值图像与当前的RGB图像融合成3通道图像后,将该融合图像送入车辆多属性识别一体化网络进行网络训练。训练完毕后,利用雷达和视觉相机提取隧道中运动车辆信息(车辆坐标、距离)生成3通道图像后,送入车辆多属性识别网络模型进行检测识别,输出车辆具体位置、型号和颜色。
-
公开(公告)号:CN117690111A
公开(公告)日:2024-03-12
申请号:CN202311451675.3
申请日:2023-11-02
申请人: 北京工业大学
IPC分类号: G06V20/58 , G06V20/70 , G06V10/764 , G06V10/774 , G06V10/82 , G06V10/74 , G06N3/0455 , G06N3/0464 , G06N3/0499 , G06N3/084
摘要: 本发明提供一种轨道交通障碍物检测方法、装置、存储介质及处理器,属于轨道交通智能检测技术领域。该方法通过对轨道交通训练数据中的未标注区域进行伪标签标注,以提高训练样本数据的数据量;然后通过对原始图‑文模型进行调整,得到分类模型,使其在轨道交通场景拥有更好的零样本分类性能;最后通过将传统目标检测模型的分类头与分类模型的输出层对齐,有效的将分类模型的分类能力迁移到了目标检测模型中,拓展了轨道交通场景下目标检测模型对未知类别对象的检测识别能力,提高了轨道交通障碍物检测的效率和准确率。
-
公开(公告)号:CN111275637B
公开(公告)日:2024-01-30
申请号:CN202010040751.1
申请日:2020-01-15
申请人: 北京工业大学
IPC分类号: G06T5/73 , G06N3/0464
摘要: 一种基于注意力模型的非均匀运动模糊图像自适应复原方法属于数字图像/视频信号处理领域。本发明设计了一个结合注意力机制的条件生成对抗网络。生成网络为一个编解码结构,编码阶段采用密集连接网络提取特征,提高特征利用率,加强特征的传播,并加入视觉注意力机制,使网络对于不同的输入图像能够自适应地调解网络参数,动态去除图像模糊。本发明可以从非均匀运动模糊图像中有效复原出清晰图像。该技术在目标跟踪、交通检测、军事侦察等领域具有广泛的应用前景。
-
公开(公告)号:CN117315772A
公开(公告)日:2023-12-29
申请号:CN202311100730.4
申请日:2023-08-29
申请人: 北京工业大学
IPC分类号: G06V40/20 , G06V20/40 , G06N3/0895 , G06N3/082 , G06V10/82 , G06V10/764
摘要: 本发明实施例提供一种网络直播视频的异常动作定位方法、装置和存储介质,属于视频技术领域。该异常动作定位方法包括:基于多纤维网络对网络直播视频进行特征提取,以生成网络直播视频的片段级视频特征序列;对片段级视频特征进行处理,输出针对网络直播视频中的主播动作的类别激活序列和注意力分支;以及基于多实例学习方法计算类别激活序列与注意力分支的加权结果,生成针对主播动作的时序异常动作提名,其中时序异常动作提名用于指示针对网络直播视频的主播动作的异常动作定位结果。本发明实施例无需对视频进行大量标注,采用弱监督学习方式,降低数据标注成本和时间,满足对视频中时序异常动作的实时性定位需求,实现对异常动作的快速定位。
-
-
-
-
-
-
-
-
-