-
公开(公告)号:CN116070120A
公开(公告)日:2023-05-05
申请号:CN202310356461.1
申请日:2023-04-06
申请人: 湖南归途信息科技有限公司 , 中南大学
IPC分类号: G06F18/214 , G06F18/213 , G06F18/24 , G06F18/2415 , G06N3/08 , G06N3/0464
摘要: 本发明公开了一种多标签时序电生理信号的自动识别方法及系统,通过采集时序电生理信号数据集,将多标签信号解码为单标签特征信号,建立正负样本训练单标签识别模型,并通过自主学习、强化学习以及单标签识别模型的特征迁移,获得多标签识别模型以及根据多标签先验概率、单标签先验概率、单标签识别模型以及多标签识别模型对待识别的多标签时序电生理信号进行自动识别,解决了对类别不平衡的多标签时序电生理信号识别准确度低的技术问题,能同时精准识别常见类别和罕见类别,从而大大提高了多标签预测的准确度。
-
公开(公告)号:CN116070120B
公开(公告)日:2023-06-27
申请号:CN202310356461.1
申请日:2023-04-06
申请人: 湖南归途信息科技有限公司 , 中南大学
IPC分类号: G06F18/214 , G06F18/213 , G06F18/24 , G06F18/2415 , G06N3/08 , G06N3/0464
摘要: 本发明公开了一种多标签时序电生理信号的自动识别方法及系统,通过采集时序电生理信号数据集,将多标签信号解码为单标签特征信号,建立正负样本训练单标签识别模型,并通过自主学习、强化学习以及单标签识别模型的特征迁移,获得多标签识别模型以及根据多标签先验概率、单标签先验概率、单标签识别模型以及多标签识别模型对待识别的多标签时序电生理信号进行自动识别,解决了对类别不平衡的多标签时序电生理信号识别准确度低的技术问题,能同时精准识别常见类别和罕见类别,从而大大提高了多标签预测的准确度。
-
公开(公告)号:CN118230047A
公开(公告)日:2024-06-21
申请号:CN202410393062.7
申请日:2024-04-02
IPC分类号: G06V10/764 , G06V10/774 , G06V10/82 , G06V10/74 , G06T7/00 , G06T7/11 , G06N3/045 , G06N3/0464 , G06N3/08 , G06V10/762
摘要: 本发明涉及图像处理技术领域,公开了一种基于鉴别性权重自注意力学习的皮损图像分类方法及系统,该方法首先构建正常皮肤临床图像的特征信息分布,然后构建皮损图像的鉴别性权重分布数据集,构建基于鉴别性权重自注意力学习的皮损图像分类识别模型实现皮损类别识别,实现鉴别性地利用皮损图像中的有效信息,契合临床使用要求,提高了模型识别的精度。
-
公开(公告)号:CN118071782A
公开(公告)日:2024-05-24
申请号:CN202410402753.9
申请日:2024-04-03
IPC分类号: G06T7/13 , A61B5/00 , G06T7/00 , G06N3/0464 , G06N3/08
摘要: 本发明涉及医学图像处理技术领域,公开了一种基于皮肤局部图像的肿瘤切缘设计方法及系统,对初始数据集进行随机非重叠取样得到取样数据集;得到人体部位标签;选取局部小图像,并利用局部小图像的坐标信息求解待设计皮肤肿瘤切缘图像的参考坐标范围;基于参考坐标范围和人体部位标签得到待设计皮肤肿瘤切缘图像的粗略皮纹方向;将超分辨放大模型中得到超分辨放大图像,并对超分辨放大图像进行皮肤纹理检测得到精确皮纹线;对待设计皮肤肿瘤切缘图像进行肿瘤边界检测得到肿瘤边界信息,基于肿瘤边界信息和精确皮纹线对待设计皮肤肿瘤切缘图像中的皮肤肿瘤进行切缘设计;本发明解决了现有的肿瘤切缘设计存在准确度较低的问题。
-
公开(公告)号:CN118379575A
公开(公告)日:2024-07-23
申请号:CN202410393061.2
申请日:2024-04-02
IPC分类号: G06V10/774 , G06V10/764 , G06T7/00 , G16H10/60 , G06N20/20 , G06N5/01
摘要: 本发明涉及皮肤信息处理技术领域,公开了一种皮肤多模态数据处理方法及系统,该方法首先对病史数据的缺失属性值进行补充和扩增处理;对补充和扩增后的病史数据所对应的皮肤临床图像进行临床图像扩增,形成成对配套的多模态数据;其中,进行临床图像扩增的方式包括基于疾病一致性的皮肤临床图像扩增和基于皮肤常见组成变换的皮肤临床图像扩增。这样,通过对病史数据进行补充和扩增,以及皮肤临床图像的扩增,可以解决多模态数据的不完整性和数据量较少的问题。
-
公开(公告)号:CN113191949B
公开(公告)日:2023-06-20
申请号:CN202110469466.6
申请日:2021-04-28
申请人: 中南大学
IPC分类号: G06T3/40 , G06N3/0475 , G06N3/094
摘要: 本发明公开了多尺度超分辨率病理图像数字化、系统及存储介质,通过低放大倍率镜头,以病理载玻片为目标进行扫描,获得待转换的低分辨率的病理图像;构建以低分辨率病理图像为输入量,以低分辨率病理图像对应的多个尺度高分辨率病理图像为输出量的多尺度对抗网络。以最大放大倍率采集载玻片的真实图像,并从真实图像中提取其它放大倍率的图像以及低分辨率图像,将真实图像、对应的其它放大倍率的图像以及低分辨率图像输入至多尺度对抗网络中进行训练,将待转换的低分辨率病理图像输入至训练好的多尺度对抗网络中,得到多个不同放大倍率的高分辨率病理图像,从而实现一次性快速生成若干个不同放大倍率的高分辨率病理图像。
-
公开(公告)号:CN116090292A
公开(公告)日:2023-05-09
申请号:CN202211612285.5
申请日:2022-12-15
申请人: 中南大学
IPC分类号: G06F30/23 , G06F17/18 , G06F119/14
摘要: 本发明涉及堆载下土体侧移测量技术领域,公开了一种堆载下软土覆盖区土体侧移的计算方法及系统。确定土体参数、土体参数的概率分位土体堆载等级取值范围,对各项参数取平均值作为基准值,建立二维有限元模型,对被软土覆盖区域的土体侧移进行分析;对二维有限元模型的取值范围结合土体侧移分析结果,对取基准值的参数进行敏感性分析,得出敏感因子;基于敏感因子,判断常量与变量,选取变量并结合响应面函数进行土体侧移的初步拟合,判断响应面函数的项数以及次数;由选取的变量进行Box‑Behnken试验,得出参数组合,将各参数组合代入响应面函数计算结果,对结果进行二次拟合,得到土体侧移曲线的项前系数的显示关系,获取各参数与土体侧向位移之间的关系。
-
公开(公告)号:CN115147769A
公开(公告)日:2022-10-04
申请号:CN202210904937.6
申请日:2022-07-29
申请人: 中南大学
IPC分类号: G06V20/40 , G06V40/16 , G06V10/25 , G06V10/26 , G06V10/74 , G06V10/774 , G06V10/82 , G06N3/04 , G06N3/08 , A61B5/0205
摘要: 本发明公开了一种基于红外视频的生理参数鲁棒性检测方法,运用图像配准从待检测对象的各个时序图像帧中建立稳定的时序图像帧序列。从稳定的时序图像帧序列抽取感兴趣区域内各个像素点的像素数据,构建感兴趣区域内各个像素点的时序像素序列;对于每一个像素点的时序像素序列,将时序像素序列分割成若干个长度为m的子集,每个子集同一位置像素数据处于生理周期的同一时序。将所有子集中位于相同位置的像素数据进行平均处理,得到像素点的高信噪比的时间序列数据;将感兴趣区域内所有像素点时间序列数据输入至基于深度学习的生理参数预测模型,得到待检测对象的生理参数。本发明通过相似性测量以及时间序列切割平均方法,能提高检测的精确度。
-
公开(公告)号:CN114898846A
公开(公告)日:2022-08-12
申请号:CN202210524436.5
申请日:2022-05-13
申请人: 中南大学
摘要: 本发明公开了基于低分辨率成像的数字病理系统,通过扫描病理切片,快速获取低分辨率病理图片,再将病理图像以低分辨率的方式进行存储,在使用时再采用超分辨率图像处理技术构建高分辨率图像,能在保证图片质量的同时,减少图像存储所带来的资源消耗,并且针对使用频率不同的图像进行分类存储,将经常使用的高分辨率图像单独存储,能大大提高检索速度。
-
公开(公告)号:CN113197558B
公开(公告)日:2022-06-17
申请号:CN202110325026.3
申请日:2021-03-26
申请人: 中南大学 , 湖南致力工程科技有限公司
IPC分类号: A61B5/0205
摘要: 本发明涉及图像处理技术领域,公开一种心率与呼吸率检测方法、系统及计算机存储介质,以提高鲁棒性。本发明方法包括:基于额头、左脸颊、右脸颊以及侧脸四个区域进行图像数据集的提取和模型训练,一方面,分析4个感兴趣区域是否移动,排除集合内受到人脸表情、动作和姿势等影响的图像噪声;另一方面,考虑到视频采集的光照是不均匀的,而且是全局低频变化的,局部区域的光照可以认为是一个常数,去除网格数据的均值,也去除了光照的局部常数值,因此通过去均值处理后获得的信号数据序列可以削弱光照不均匀性的影响;再一方面,通过将各个感兴趣区域筛选出的相关性高的数据序列汇总成有效数据序列集合进一步确保了数据的多维性和精准度。
-
-
-
-
-
-
-
-
-