-
公开(公告)号:CN113327233B
公开(公告)日:2023-05-16
申请号:CN202110591907.X
申请日:2021-05-28
申请人: 北京理工大学重庆创新中心 , 北京理工大学
IPC分类号: G06T7/00 , G06V10/82 , G06N3/047 , G06N3/0464 , G06N3/096 , G06V10/764 , G06V10/766
摘要: 本发明提供了一种基于迁移学习的细胞图像检测方法,通过傅里叶叠层显微成像系统采集了细胞图像并通过频谱迭代进行融合获得大视场、高分辨率细胞图像,采用VGG和FPN网络模型构建细胞密度估计网络,对细胞图像中细胞中心位置进行标注获取细胞密度图输入训练模型,将训练好的网络模型作为骨干网络构建细胞检测网络模型,进行迁移学习,获取细胞检测图输入细胞检测网络模型中,采用RPN网络提取候选区域,通过回归器和分类器对细胞进行位置回归和分类,最终得到细胞预测结果。本发明基于迁移学习,通过迁移学习训练能够提取到相似数据集共同特征的网络模型,解决了训练样本不足的问题,同时保证了模型输出的准确性。
-
公开(公告)号:CN111105416B
公开(公告)日:2022-09-09
申请号:CN201911419285.1
申请日:2019-12-31
申请人: 北京理工大学重庆创新中心 , 北京理工大学
摘要: 本发明公开了一种骨髓细胞增生程度自动分级方法及系统,属于计算显微成像领域的技术领域该方法包括以下步骤:将骨髓涂片经过图像采集以得到强度图和相位图;将强度图和相位图输入至卷积神经网络模型中,并通过卷积神经网络模型对骨髓涂片中的有核细胞与无核细胞分别进行计数;根据计数的结果计算有核细胞与无核细胞的比例,并获取骨髓细胞增生程度的等级,以达到克服了人工计数中的复杂问题,为骨髓细胞增生程度分级提供准确细胞计数的目的。
-
公开(公告)号:CN114331911A
公开(公告)日:2022-04-12
申请号:CN202210007222.0
申请日:2022-01-05
申请人: 北京理工大学重庆创新中心 , 北京理工大学
摘要: 本发明公开了一种基于卷积神经网络的傅里叶叠层显微图像去噪方法,包括以下步骤:S1、利用傅里叶叠层显微系统对人体血细胞样本进行成像,制作数据集;S2、搭建卷积神经网络;S3、将训练集的输入送入到卷积神经网络的编码模块、去噪模块和解码模块,利用卷积神经网络的特性,抑制噪声信息通道的表达;S4、利用L1损失函数反复迭代优化卷积神经网络,完成卷积神经网络的训练;S5、利用卷积神经网络对实际采集的傅里叶显微图像进行去噪,获得高质量重建图像。本发明结合傅里叶叠层显微系统获得的强度图和相位图,利用深度学习方法的优势,改善了传统重建算法的噪声问题,给医学高质量成像提供了一种准确科学的算法。
-
公开(公告)号:CN113671682A
公开(公告)日:2021-11-19
申请号:CN202110969362.1
申请日:2021-08-23
申请人: 北京理工大学重庆创新中心 , 北京理工大学
摘要: 本发明基于傅里叶叠层显微成像的频域光源位置精确校正方法中,(1)针对校正位置不精确的问题,对LED阵列中每个LED引入独立的频域位置误差模型进行精确校正;(2)针对校正过程需要参与图像重建过程而带来的时间消耗过长的问题,引入一幅高倍物镜采集的高分辨率强度图像当做参考图像,模拟傅里叶叠层显微成像技术的图像采集过程,生成每个LED对应的虚拟低分辨强度图像。结合虚拟与实际采集的图像,建立损失函数,以二维粒子群算法搜索每个LED对应的最佳频域位置参数。因此,本发明利用引入的高倍物镜下高分辨强度图像与频域位置误差模型实现了基于傅里叶叠层成像原理的LED光源频域位置精确校正,具有实现简易、鲁棒性高、位置精确等优点。
-
公开(公告)号:CN113327233A
公开(公告)日:2021-08-31
申请号:CN202110591907.X
申请日:2021-05-28
申请人: 北京理工大学重庆创新中心 , 北京理工大学
摘要: 本发明提供了一种基于迁移学习的细胞图像检测方法,通过傅里叶叠层显微成像系统采集了细胞图像并通过频谱迭代进行融合获得大视场、高分辨率细胞图像,采用VGG和FPN网络模型构建细胞密度估计网络,对细胞图像中细胞中心位置进行标注获取细胞密度图输入训练模型,将训练好的网络模型作为骨干网络构建细胞检测网络模型,进行迁移学习,获取细胞检测图输入细胞检测网络模型中,采用RPN网络提取候选区域,通过回归器和分类器对细胞进行位置回归和分类,最终得到细胞预测结果。本发明基于迁移学习,通过迁移学习训练能够提取到相似数据集共同特征的网络模型,解决了训练样本不足的问题,同时保证了模型输出的准确性。
-
公开(公告)号:CN112798108A
公开(公告)日:2021-05-14
申请号:CN202011591277.8
申请日:2020-12-29
申请人: 北京理工大学重庆创新中心
摘要: 本发明公开了一种瓷砖自适应分色方法及装置。对于采集的瓷砖图像进行预处理、分版和分色,分色包括开色和分色两个流程。预处理包括根据标定区域三通道值对图像进行灰度值校正的过程。分版包括正交旋转模板并对应提取纹理特征,基于模板的特征空间进行时空约束的相关滤波及相似度评估的过程。开色包括初始色号的特征中心及特征分布范围确定的过程,以及新色号的特征中心及特征分布范围确定的过程,在已统计色号中匹配瓷砖颜色特征的过程。本发明无需提前配置标准模板,依据瓷砖生产过程的特点,自动完成对各批次瓷砖的分版。本发明无需配置标准色号,能够自适应地完成对各色号的开色,并且随着检测数量的增加,使开色和分色结果越趋向准确。
-
公开(公告)号:CN111105416A
公开(公告)日:2020-05-05
申请号:CN201911419285.1
申请日:2019-12-31
申请人: 北京理工大学重庆创新中心 , 北京理工大学
摘要: 本发明公开了一种骨髓细胞增生程度自动分级方法及系统,属于计算显微成像领域的技术领域该方法包括以下步骤:将骨髓涂片经过图像采集以得到强度图和相位图;将强度图和相位图输入至卷积神经网络模型中,并通过卷积神经网络模型对骨髓涂片中的有核细胞与无核细胞分别进行计数;根据计数的结果计算有核细胞与无核细胞的比例,并获取骨髓细胞增生程度的等级,以达到克服了人工计数中的复杂问题,为骨髓细胞增生程度分级提供准确细胞计数的目的。
-
公开(公告)号:CN112633393B
公开(公告)日:2022-11-15
申请号:CN202011589821.5
申请日:2020-12-29
申请人: 北京理工大学重庆创新中心
IPC分类号: G06V10/764 , G06V10/75 , G06V10/74 , G06F16/583 , G06F16/55 , G06T3/60 , G06T5/00 , G06T5/20 , G06T7/194 , G06T7/41 , G06T7/80
摘要: 本发明公开了一种瓷砖纹理自动分类方法及装置。对采集的瓷砖图像进行预处理,将第一幅瓷砖区域图像及其对应的纹理特征添加进模板库,包括将瓷砖区域图像保留0度、旋转90度、旋转180和旋转270度四个角度,并分别提取对应的纹理特征;对于后续瓷砖区域图像,提取纹理特征并在所述模板库的特征空间中进行时空约束的相关滤波运算,寻找响应值最大的位置,进一步评估相似度。在相似度超过阈值时,输出对应的版号及旋转角度,否则,添加图像和对应纹理特征至模板库。本发明不需要提前配置标准模板,能够对各批次的瓷砖进行自动地分版,且分版过程计算效率高,分版准确性高。
-
公开(公告)号:CN112633393A
公开(公告)日:2021-04-09
申请号:CN202011589821.5
申请日:2020-12-29
申请人: 北京理工大学重庆创新中心
IPC分类号: G06K9/62 , G06F16/583 , G06F16/55 , G06T3/60 , G06T5/00 , G06T5/20 , G06T7/194 , G06T7/41 , G06T7/80
摘要: 本发明公开了一种瓷砖纹理自动分类方法及装置。对采集的瓷砖图像进行预处理,将第一幅瓷砖区域图像及其对应的纹理特征添加进模板库,包括将瓷砖区域图像保留0度、旋转90度、旋转180和旋转270度四个角度,并分别提取对应的纹理特征;对于后续瓷砖区域图像,提取纹理特征并在所述模板库的特征空间中进行时空约束的相关滤波运算,寻找响应值最大的位置,进一步评估相似度。在相似度超过阈值时,输出对应的版号及旋转角度,否则,添加图像和对应纹理特征至模板库。本发明不需要提前配置标准模板,能够对各批次的瓷砖进行自动地分版,且分版过程计算效率高,分版准确性高。
-
公开(公告)号:CN111105415A
公开(公告)日:2020-05-05
申请号:CN201911410640.9
申请日:2019-12-31
申请人: 北京理工大学重庆创新中心 , 北京理工大学
摘要: 本发明公开了一种基于深度学习的白细胞大视场图像检测系统及方法,系统由图像采集模块、图像重建模块和基于深度学习的智能检测模块构成,通过低倍显微物镜对不同光照下的检测样本成像;图像采集模块记录该低分辨率图像的集合;图像重建模块通过频谱迭代的方法获取高分辨率图像;检测模块使用预先训练好的神经网络对生成的高分辨图像进行特征提取和识别,最后输出检测结果。本发明能够智能识别白细胞,并分别对视场内的白细胞和红细胞进行计数,帮助检查者快速且准确得到分析结果;同时,满足高分辨率与大视场相结合的要求,实现使用低倍镜得到更高的对比度和分辨率的效果,降低了系统的制造成本。
-
-
-
-
-
-
-
-
-