一种基于深度学习模型的DSA冠脉图像分割方法及系统

    公开(公告)号:CN118096792A

    公开(公告)日:2024-05-28

    申请号:CN202410263835.X

    申请日:2024-03-08

    申请人: 河海大学

    摘要: 本发明公开了一种基于深度学习模型的DSA冠脉图像分割方法及系统,包括:将DSA冠状动脉图像进行对比度增强和去除噪声;在原始U‑Net模型的基础卷积模块中加入BN层、Dropout层和密集空洞卷积模块,将基础卷积模块改进成密集空洞卷积模块;构建最低分辨率级别空间注意力模块以及双路径空间注意力模块;将密集空洞卷积模块,最低分辨率级别空间注意力模块与双路径空间注意力模块组成联合空间注意力模块,构建出改进的U‑Net网络模型;对最终的改进U‑Net模型进行训练及测试得到分割结果。本发明能够提升冠状动脉血管分割方法对于微小血管及包含噪声干扰的血管图片的分割效果,能够有效对DSA影像进行快速、准确的处理和分析,为后续进行血管三维重建建立了基础。

    一种基于主动深度学习的高光谱图像分类方法

    公开(公告)号:CN116797810A

    公开(公告)日:2023-09-22

    申请号:CN202210243795.3

    申请日:2022-03-11

    申请人: 河海大学

    发明人: 张莎莎 王慧斌

    摘要: 本发明公开了一种基于主动深度学习的高光谱图像分类方法,将深度学习模型与主动学习结合。所提出的主动深度学习框架,使用混合卷积神经网络充分提取高光谱图像的光谱特征,并对已有的贝叶斯不一致主动学习(BALD)采样函数进行了一些改进。将采集函数的概念有效地扩展到样本点的集合中,从而挑选出更有价值的样本(信息量高且样本间冗余度低的样本)交给专家标注并将其用于模型训练,从而较快地提升模型的性能。在保障深度学习模型适用性的前提下,解决了高光谱影像训练数据少,标注困难的问题。

    MROCNet模型构建与多源遥感影像变化检测方法及系统

    公开(公告)号:CN116363526A

    公开(公告)日:2023-06-30

    申请号:CN202310366868.2

    申请日:2023-04-07

    申请人: 河海大学

    摘要: 本发明公开了一种多源遥感影像对象类型变化检测深度学习模型MROCNet构建方法及应用,首先通过所提的精确匹配算法,完成多源遥感影像的匹配和对象语义标注,构建双时相多源遥感影像对象类型变化检测数据集;并构建基于孪生网络架构的MROCNet模型,该模型的每个主干网由四个长短型分支构成,其中两个分支包括轻量化串并联扩张残差网络模块和多尺度通道信息增强模块,另外两个分支包括轻量化串并联扩张残差网络模块和多尺度空间信息增强模块;最后基于构建的数据集训练模型,通过语义计算对比实现地物类型变化检测。本发明能够有效解决遥感影像中的类内不一致和类间相似性问题,提升网络模型的判别能力,为河湖健康管理的及时响应提供智能化方法。

    一种MEMS多层薄膜材料杨氏模量在线提取装置及方法

    公开(公告)号:CN114137028A

    公开(公告)日:2022-03-04

    申请号:CN202111355006.7

    申请日:2021-11-16

    申请人: 河海大学

    IPC分类号: G01N27/00

    摘要: 本发明公开了多层薄膜材料技术领域的一种MEMS多层薄膜材料杨氏模量在线提取装置及方法,装置包括若干组悬臂梁结构,其中,第m组悬臂梁结构中的多层薄膜材料的层数为m,m=1,2,···,n,n为待测多层薄膜材料的总层数;在每组悬臂梁结构中,包括固定在衬底材料同一表面上的锚区、驱动电极和接触电极,由多层薄膜材料形成的悬臂梁的一端固定于所述锚区,另一端位于所述接触电极的上方,驱动电极位于锚区和接触电极之间,且位于多层薄膜材料的下方。本发明通过合理设置电极的位置,避开吸合这种不稳定状态,设计的MEMS多层薄膜材料杨氏模量在线提取装置及方法具有操作简单,成本低,测量速度快,通用性强,可重复性高的优点。

    基于峰值尖锐指导置信度的视觉目标跟踪方法与装置

    公开(公告)号:CN112734806A

    公开(公告)日:2021-04-30

    申请号:CN202110046537.1

    申请日:2021-01-14

    申请人: 河海大学

    IPC分类号: G06T7/246 G06T7/73

    摘要: 本发明公开了一种基于峰值尖锐指导置信度的视觉目标跟踪方法与装置,在背景感知相关滤波方法BACF中引入多特征融合表征目标,并基于峰值尖锐程度设计自适应的权重,从而解决水下图像中目标难以准确表征的难题;并提出了一种基于峰值尖锐程度指导的高置信度模型更新策略,有效提高了方法在目标被遮挡或部分超出视野等情况下的跟踪鲁棒性,解决了水下目标表征多变的难题。在保证方法良好运行速度的前提下,本发明改进方法与传统BACF方法相比,在精度和成功率上都有了显著的提升,尤其适合在水下序列出现低分辨率、光照变化以及水下目标部分超出视野外、被遮挡等情况下使用。

    融合自学习语义特征与设计特征的遥感影像目标提取方法

    公开(公告)号:CN110544260B

    公开(公告)日:2020-06-30

    申请号:CN201910777761.0

    申请日:2019-08-22

    申请人: 河海大学

    IPC分类号: G06T7/136 G06T5/00 G06T7/181

    摘要: 本发明公开了一种融合自学习语义特征与设计特征的遥感影像目标提取方法,包括如下步骤:使用人工设计的边缘算子对遥感影像提取内部边缘点,依据边缘点完成图像初始分割并标记分割对象;通过改进的Mask R‑CNN模型学习并提取建筑物语义特征,根据自学习语义特征提取建筑物掩膜图像;融合基于边缘算子的遥感影像分割图与掩膜图像获得最终建筑物提取图。本发明从建筑物的自学习语义特征与人工设计特征两个角度出发,完成建筑物提取。模型既可以通过自学习语义特征弥补传统人工特征设计困难导致的目标误提取、漏提取问题,又可通过人工特征的设计完善自学习语义特征导致的建筑物提取结果边缘拟合较差、局部缺失问题。