-
公开(公告)号:CN115147640A
公开(公告)日:2022-10-04
申请号:CN202210604510.4
申请日:2022-05-31
申请人: 长沙理工大学 , 湖南创星科技股份有限公司 , 湖南可孚芯驰医疗科技有限公司 , 湖南宸瀚科技有限公司
IPC分类号: G06V10/764 , G06N3/04 , G06N3/08 , G06V10/774 , G06V10/82
摘要: 本发明公开了一种基于改进胶囊网络的脑肿瘤图像分类方法,包括获取脑肿瘤图片数据训练集,输入至SqueezeNet模块提取有效特征;将有效特征输入至初始的预设胶囊网络中进行训练得到初始分类结果,根据初始分类结果、预设的第一损失函数和预设的第二损失函数对初始的预设胶囊网络进行反向传播更新网络参数,得到训练好的胶囊网络;获取脑肿瘤图片,将脑肿瘤图片输入至SqueezeNet模块,提取脑肿瘤图片中的有效特征,并输入至训练好的胶囊网络,得到脑肿瘤分类结果。将图像浅层与深层语义特征进行融合,解决胶囊网络关注过多的图像细节特征,难以对图像细节特征进行有效筛选而造成的模型过拟合问题。将提出的胶囊网络应用于脑肿瘤数据集,有效提高分类准确性。
-
公开(公告)号:CN118097507A
公开(公告)日:2024-05-28
申请号:CN202410262004.0
申请日:2024-03-07
申请人: 长沙理工大学
IPC分类号: G06V20/40 , G06V10/26 , G06V10/774 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/08
摘要: 本发明公开了一种掩码矫正的半监督视频目标分割方法及系统。其实现方案如下,首先获取视频序列数据集和分割标签,并对数据集视频序列进行数据扩充与处理,其次构建分割模型,并构建损失函数用以训练分割模型,最后利用训练好的分割模型进行视频目标分割。本发明通过设计细节感知解码器模块,通过捕捉特征空间结构间的依赖关系,自适应选择需要关注的空间信息,并关注特征的目标通道增强特征的细节信息,并且去除特征中与目标不相关的信息,其次,设计掩码矫正模块,根据粗略预测结果估计掩码的不确定区域,利用局部细节特征对目标边界及其他不确定区域进行矫正,能够有效地提升模型分割精度,解决具有挑战的分割误差累积问题。
-
公开(公告)号:CN118097335A
公开(公告)日:2024-05-28
申请号:CN202410262100.5
申请日:2024-03-07
申请人: 长沙理工大学
IPC分类号: G06V10/774 , G06V10/764 , G06V10/766 , G06V10/82 , G06N3/0455 , G06N3/08
摘要: 本发明公开了一种基于改进Deformable‑DAB‑DETR的小目标检测方法及系统,通过在训练阶段引入尺度感知的位置约束和渐进性标签分配来解决查询之间的内部冲突问题以及监督稀疏性问题。具体而言,我们采用了一种尺度感知的位置约束,根据目标的尺度进行自适应的位置约束,使得每个查询负责的区域更加集中。然后,我们设计了一种一对多的渐进性标签分配,为解码器提供逐层增加的监督信号,有助于进行更适合小目标的标签分配。本发明提出的方法可以很容易集成到其他现有的DETR变体中,同时只引入了可忽略不计的参数量和计算成本,进一步提高小目标的检测性能。
-
公开(公告)号:CN112560637A
公开(公告)日:2021-03-26
申请号:CN202011437792.0
申请日:2020-12-10
申请人: 长沙理工大学
摘要: 本发明公开了一种基于深度学习的服饰解析方法、设备及存储介质,方法包括:获取用于训练的原始图像,通过姿态估计器从原始图像中采集与每一人体部位相对应的一个关键点;随机采集背景点,将关键点和背景点转换成对应的距离图;将原始图像和距离图输入至预设的区域级分割模型中进行训练;通过训练完成的区域级分割模型对待解析图像进行处理,得到输出的服饰解析结果。通过本发明得到的服饰解析结果更加精确且快速;本发明能够很好地消除不利因素对分割的干扰,而且能够快速且高精度地处理具有复杂场景的图像。
-
公开(公告)号:CN105046735B
公开(公告)日:2018-04-10
申请号:CN201510408262.6
申请日:2015-07-13
申请人: 长沙理工大学
IPC分类号: G06T15/04
摘要: 本发明涉及一种基于基元分布的三维表面纹理合成方法,该方法包括以下步骤:提取基元;构建基元连通关系;生成三维模型表面矢量场;构建三维模型表面基元分布;在三维模型表面放置基元。本发明在三维模型局部参数化的情况下能够进行有效的纹理映射,避免了在合成过程中对样本纹理进行大量的邻域匹配搜索,从而能够高效率地在三维表面进行纹理合成;另外,本发明能够在合成结果中有效保持基元的完整性、纹理结构的连续性和规则性,进而获得高质量的三维表面纹理合成结果。
-
公开(公告)号:CN114092422B
公开(公告)日:2024-06-07
申请号:CN202111330682.9
申请日:2021-11-11
申请人: 长沙理工大学
摘要: 本申请公开了一种基于深度循环注意力的图像多目标提取方法及系统,该方法包括:构建目标对象分割网络模型,其中,对图像生成待分割目标对象的交互点集,并将每一个目标对象的交互点集转换为距离图;将所述图像经过基础网络,得到与原图像大小相同的深度视觉特征,在深度视觉特征的基础上得到外观嵌入特征;根据所述距离图和所述深度视觉特征学习同一目标对象和不同目标对象之间交互点的竞争,获得待分割目标对象的注意力图和背景的注意力图;根据所述待分割目标对象的注意力图、所述背景的注意力图和外观嵌入特征进行分割得到目标对象分割结果。通过本申请解决了现有技术中针对多目标提取时效果不理想的问题,从而提高了多目标分割的质量。
-
公开(公告)号:CN110163873A
公开(公告)日:2019-08-23
申请号:CN201910417693.7
申请日:2019-05-20
申请人: 长沙理工大学
摘要: 本发明公开了一种双边视频目标分割方法及系统,该方法将带关键帧标记的视频序列映射到高维的双边空间,减少待处理的视频数据,然后以非空的网格单元作为图的结点并构建图割优化模型,其关键在于通过分析高斯分布规律构建置信动态外观模型,准确地估计各网格单元属于前/背景的可能性;并在能量函数中引入高阶项,用以增强不相邻但具有相似外观特征的结点的时空相关性;最后,利用最大流/最小割算法求解能量函数,获得每一网格单元对应的标签值,最终实现视频像素点的标签分配。该方法不仅能够很好地消除不利因素对分割的干扰,而且能够快速且高精度地处理具有复杂场景的视频目标分割。
-
公开(公告)号:CN105957124B
公开(公告)日:2018-10-30
申请号:CN201610248743.X
申请日:2016-04-20
申请人: 长沙理工大学
IPC分类号: G06T11/60
摘要: 本发明涉及一种具有重复场景元素的自然图像颜色编辑方法及装置,其中,所述方法包括对待编辑的自然图像通过超像素分割方法进行图像预处理,以将所述自然图像划分成预设数量的图像子块区域;提取所述自然图像的颜色特征和纹理特征,并根据所述颜色特征和纹理特征构建特征空间向量;根据所述特征空间向量对所述预设数量的图像子块区域进行聚类处理,以根据所述聚类处理的结果对所述自然图像进行局部颜色分配;通过全局优化算法对经过局部颜色分配的自然图像进行颜色传递,以获取颜色编辑结果图像。本发明可提高颜色编辑的速度,且能有效的保持重复场景元素颜色的一致性,实现不同标记的图像子块区域的不同颜色的编辑,获得丰富的颜色编辑结果。
-
公开(公告)号:CN117876775A
公开(公告)日:2024-04-12
申请号:CN202410049017.X
申请日:2024-01-12
申请人: 长沙理工大学
IPC分类号: G06V10/764 , G06V10/25 , G06V10/82 , G06N3/0455 , G06N3/08
摘要: 本发明公开了一种基于改进DAB‑DETR的目标检测方法及系统,基于DAB‑DETR结构改进而来,在不改变原有结构的基础上,开发了两种训练设计,有效解决了查询之间的冗余预测以及分类置信度和定位精度之间的不对齐问题。具体而言,我们提出了一种查询感知的区域约束,通过限制每个查询的责任区域,避免了查询之间不必要的内部冲突。然后,我们引入了一种位置调制的分类损失,通过加强分类置信度与定位精度之间的相关性,鼓励模型产生分类置信度对齐定位精度的预测。提出的两种设计极大提高了DAB‑DETR的收敛速度和检测精度,并且没有增加模型的参数量和计算成本,可以很容易集成到现有基于DETR的模型,带来进一步的提升。
-
公开(公告)号:CN115797628A
公开(公告)日:2023-03-14
申请号:CN202211487962.5
申请日:2022-11-24
申请人: 长沙理工大学
摘要: 本申请公开了一种基于条件生成对抗的交互式图像分割方法及系统,该方法使用条件生成对抗网络来加强分割的高阶一致性,且在推理过程中不需要额外的后处理模块。具体而言,我们开发了一个新的分割网络,通过跨多层进行融合,并提供全局上下文信息和像素级关注,集成了四个不同的模块。这使得分割网络能够准确地学习强目标对象表示,并预测前景和背景。然后,我们使用一个全卷积判别器来检测和纠正预测与分割网络和真实结果标签映射之间的高阶不一致。为了实现这一点,我们优化了一个目标函数,该函数结合了传统的分割损失和对抗项的辅助对抗损失。通过网络的学习表明该方法下的分割网络产生了高精确度的分割结果,同时在速度方面更高效。
-
-
-
-
-
-
-
-
-