-
公开(公告)号:CN118864519A
公开(公告)日:2024-10-29
申请号:CN202410884574.3
申请日:2024-07-03
申请人: 重庆大学 , 重庆大学附属肿瘤医院
摘要: 本发明公开了一种基于深度感知分解和分层重建的分层空洞填充方法,其包括参考图像分解为前景对象和背景部分,生成表示前景对象的掩膜;参考图像扭曲到目标位置,带有空洞和前景对象的目标视图及对应的空洞掩膜、带有空洞且无前景对象的目标视图及对应的空洞掩膜;用经图像预处理得到由背景纹理图像和对应的空洞掩膜组成的数据集练生成对抗网络,随后分别将图像对输入训练好的生成对抗网络的生成器,分别生成填充空洞后的无前景对象的目标视图和填充空洞后的目标视图,将生成的图像合并成一个最终的填充空洞后的目标视图。综合实验结果表明,本发明相比现有最先进的方法具有显著优势。
-
公开(公告)号:CN113657513B
公开(公告)日:2023-10-24
申请号:CN202110955591.8
申请日:2021-08-19
申请人: 重庆大学 , 重庆大学附属肿瘤医院
IPC分类号: G06F18/214 , G06F18/241 , G06N3/0464 , G06F17/16
摘要: 本发明公开了一种基于相空间的传感器数据高精度分类方法,其包括步骤1)通过时间延迟嵌入法将传感器采集的单变量时间序列X嵌入到m维相空间中;2)通过最大化Θ(τ,m)的分辨率来确定τ和m的最佳值;3)将Θ(τ,m)中的所有元素线性映射到一个整数区间[0,255]以获得最大轨迹矩阵图像Θmax;4)通过分类器对从时间序列转换所得的最大轨迹矩阵图像Θmax进行分类。本发明直接将轨迹矩阵作为图像,而不是将时间序列映射到RPS图像,因此不需要相空间投影,避免了投影造成的信息损失;其通过最大化轨迹矩阵图像Θ(τ,m)的分辨率来确定重建参数,这种优化方法非常简单,并且其能帮助让分类器的分类性能达到最佳。
-
公开(公告)号:CN116805341A
公开(公告)日:2023-09-26
申请号:CN202310453947.7
申请日:2023-04-25
申请人: 重庆大学 , 重庆大学附属肿瘤医院
IPC分类号: G06T11/00 , G06T5/10 , G06N3/045 , G06N3/0475 , G06N3/094
摘要: 本发明公开了一种改善GAN生成图像质量的方法,其包括构建WL‑GAN神经网络,所述WL‑GAN神经网络包括n层级联的GAN,第1至n‑1层的GAN均由离散小波变换器、生成器和判别器组成,第n层GAN由生成器和判别器组成;将图像输入第1层GAN的离散小波变换器,并向各层GAN的生成器输入噪声,以训练所构建的WL‑GAN神经网络;在训练过程中不断调节判别器和生成器的权重,最终使各层GAN在获得输入噪声和低频图像时就能生成高频图像。本发明将原始问题分解为一系列更易于管理的阶段,图像以从粗到细的方式绘制,使得网络最终生成的图像质量得到提高。
-
公开(公告)号:CN115081489A
公开(公告)日:2022-09-20
申请号:CN202210827820.2
申请日:2022-07-13
申请人: 重庆大学 , 重庆大学附属肿瘤医院
摘要: 本发明公开了一种基于小波分解矩阵和残差网络的时间序列分类方法,其包括步骤:1)对时间序列数据进行图像化表示,2)以时间序列的图像化表示G作为分类网络的输入,通过分类网络的非线性函数fc:进行映射,得到G对应的分类表示3)设置总体目标Ltotal,实现联合优化图像化表示转换阶段的监督目标Ls和分类阶段的监督目标Lc。本发明提出了一种新的时间序列图像化表示方法——小波分解矩阵,还提出了图像化表示阶段的相似性约束,通过结合相似性约束和最小化分类误差约束,将图像化表示阶段和分类阶段集成在一起进行联合优化,这样端到端的联合优化方式,帮助达到更好的分类效果。
-
公开(公告)号:CN113657513A
公开(公告)日:2021-11-16
申请号:CN202110955591.8
申请日:2021-08-19
申请人: 重庆大学 , 重庆大学附属肿瘤医院
摘要: 本发明公开了一种基于相空间的传感器数据高精度分类方法,其包括步骤1)通过时间延迟嵌入法将传感器采集的单变量时间序列X嵌入到m维相空间中;2)通过最大化Θ(τ,m)的分辨率来确定τ和m的最佳值;3)将Θ(τ,m)中的所有元素线性映射到一个整数区间[0,255]以获得最大轨迹矩阵图像Θmax;4)通过分类器对从时间序列转换所得的最大轨迹矩阵图像Θmax进行分类。本发明直接将轨迹矩阵作为图像,而不是将时间序列映射到RPS图像,因此不需要相空间投影,避免了投影造成的信息损失;其通过最大化轨迹矩阵图像Θ(τ,m)的分辨率来确定重建参数,这种优化方法非常简单,并且其能帮助让分类器的分类性能达到最佳。
-
公开(公告)号:CN110200626A
公开(公告)日:2019-09-06
申请号:CN201910516368.6
申请日:2019-06-14
申请人: 重庆大学 , 重庆大学附属肿瘤医院
IPC分类号: A61B5/0484
摘要: 本发明提供一种基于投票分类器的视觉诱导晕动症检测方法,包括使用头戴设备Muse的四个通道采集受试者在驾驶车辆驾驶模拟器过程中诱发产生的EEG数据及从受试者的口头报告中采集主观VIMS级别数据的步骤,对数据依次进行滤波、标准化、数据均衡和PCA降维的数据预处理步骤,以及采用由RF分类器、SVM分类器、KNN分类器和XGBoost分类器组成的投票分类器进行分类的VIMS级别分类步骤。本申请采用头戴设备Muse采集连续的EEG数据,因而成本较低,采集数据的通道数较少,且采用投票分类器分类无论在准确率上还是在Kappa指标上都取得了很好的分类性能,对于VIMS症状的检测效果更具有客观性。
-
公开(公告)号:CN113283530B
公开(公告)日:2022-11-15
申请号:CN202110638024.X
申请日:2021-06-08
申请人: 重庆大学 , 重庆大学附属肿瘤医院
IPC分类号: G06V10/774 , G06V10/82 , G06V10/764 , G06N3/04 , G06N3/08
摘要: 本发明公开了一种基于级联特征块的图像分类系统,其包括宽度学习系统和用于训练宽度学习系统的训练模块,宽度学习系统包括特征块组,特征块组由若干个依次级联的特征块组成,各特征块的输出与Flatten层连接,Flatten层将拼接后的数据输入Top‑level Dropout层,经Top‑level Dropout层处理后的数据输入Top‑level FC层,Top‑level FC层输出分类结果;训练模块为Adam算法。本发明将各特征块级联起来,增加了模型的深度,使宽度学习系统能够学习到更抽象,更具有利于判别的信息,能明显提高宽度学习系统的特征学习能力,提高分类准确率,同时训练和测试时间仍然较短。
-
公开(公告)号:CN113076909B
公开(公告)日:2022-10-25
申请号:CN202110412349.6
申请日:2021-04-16
申请人: 重庆大学附属肿瘤医院 , 重庆大学
摘要: 本发明公开了一种细胞自动检测方法,其包括步骤:1)搭建检测细胞的深度卷积神经网络,2)训练所搭建的深度卷积神经网络;3)将待检测的细胞图像数据输入训练好的深度卷积神经网络,深度卷积神经网络输出检测结果;所述深度卷积神经网络包括一个用于提取特征图像的SD‑DenseNet模块、一个用于产生初步的目标建议的Region Proposal Net、三个用于解决池化操作中造成的不匹配问题的RoI Align模块和三个用于对细胞进行分类、定位及细胞分割的检测器。本发明所搭建的深度卷积神经网络能够高效、准确的实现细胞的分类、定位与分割等细胞检测任务。
-
公开(公告)号:CN114970818A
公开(公告)日:2022-08-30
申请号:CN202210578738.0
申请日:2022-05-25
申请人: 重庆大学 , 重庆大学附属肿瘤医院
摘要: 本发明公开了一种减少生成对抗网络模式崩溃的方法,其包括1)构建GMN‑GAN网络,所述GMN‑GAN网络包括高斯混合模型M、高斯混合噪声变量生成器V、样本生成器G和判别器D;高斯混合噪声变量生成器的个数与图像数据集中的图像类别数量c相等,高斯混合噪声变量生成器的输出作为样本生成器的输入,样本生成器的输出作为判别器的输入,判别器输出层的输出单元数量设定为图像类别的数量,一个输出单元对应着一个不同的类别;2)对GMN‑GAN网络进行训练。本发明中样本生成器能够生成种类更多的图像,能有效避免生成对抗网络出现模式崩溃的问题。
-
公开(公告)号:CN113283530A
公开(公告)日:2021-08-20
申请号:CN202110638024.X
申请日:2021-06-08
申请人: 重庆大学 , 重庆大学附属肿瘤医院
摘要: 本发明公开了一种基于级联特征块的图像分类系统,其包括宽度学习系统和用于训练宽度学习系统的训练模块,宽度学习系统包括特征块组,特征块组由若干个依次级联的特征块组成,各特征块的输出与Flatten层连接,Flatten层将拼接后的数据输入Top‑level Dropout层,经Top‑level Dropout层处理后的数据输入Top‑level FC层,Top‑level FC层输出分类结果;训练模块为Adam算法。本发明将各特征块级联起来,增加了模型的深度,使宽度学习系统能够学习到更抽象,更具有利于判别的信息,能明显提高宽度学习系统的特征学习能力,提高分类准确率,同时训练和测试时间仍然较短。
-
-
-
-
-
-
-
-
-