-
公开(公告)号:CN115293981A
公开(公告)日:2022-11-04
申请号:CN202210920760.9
申请日:2022-08-02
Applicant: 中国科学院生物物理研究所
Abstract: 本申请公开了结构光照明荧光显微图像去噪和超分辨率重建系统和方法,其在结构光照明超分辨显微系统中使用,后者包括光学成像系统以及控制与数据处理系统,光学成像系统包括光学器件以及成像器件,所述结构光照明荧光显微图像去噪和超分辨率重建系统包括:超分辨图像预测模块,其配置成利用神经网络架构对经结构光照明原始荧光图像预测得到第一超分辨率子图像;图像去噪模块,在所述第一超分辨率子图像被调制作为第二子图像后,被配置成以所述结构光照明原始荧光图像和所述第二子图像作为输入,利用图像去噪神经网络架构进行去噪而输出去噪后的结构光照明荧光图像;以及超分辨率重建模块。
-
公开(公告)号:CN113917677A
公开(公告)日:2022-01-11
申请号:CN202111059076.8
申请日:2021-09-09
Applicant: 中国科学院生物物理研究所
Abstract: 本申请公开了一种三维超分辨率光片显微成像方法和显微镜、特别是公开了显微成像方法,包括:以光片照明的方式对生物试样产生激发光以获得相关的荧光图像;由该荧光图像复制生成至少N个子图像,N为大于或等于2的整数,至少N个子图像中的第一子图像与荧光图像的角度相同,至少N个子图像中的第二子图像沿着第一方向相对于第一子图像被旋转一非零角度;第一子图像和第二子图像分别被转换成图像矩阵并经卷积神经网络处理,以获得第一子图像的和第二子图像的一维超分辨率图像矩阵;将第一子图像的和第二子图像的一维超分辨率图像矩阵经频域拼接为一个图像矩阵;以及将经频域拼接的图像矩阵转换为二维超分辨率图像。本申请还包括对应的显微成像系统。
-
公开(公告)号:CN113781298A
公开(公告)日:2021-12-10
申请号:CN202110898813.7
申请日:2021-08-05
Applicant: 中国科学院生物物理研究所
Abstract: 本发明提供了一种超分辨率图像的处理方法及装置、电子设备、存储介质,该方法包括:获取含有多种生物结构的超分辨率图像;通过将所述超分辨率图像输入预设卷积神经网络进行特征提取,输出与所述超分辨率图像对应的多色超分辨率图像;其中,所述预设卷积神经网络为利用不同生物结构的超分辨图像数据集训练得到的多通道卷积神经网络。通过本发明,解决了相关技术中需要拍摄多张超分辨图像实现多色超分辨率成像,进而导致多色超分辨率成像操作复杂、效率低等的技术问题。
-
公开(公告)号:CN119205502A
公开(公告)日:2024-12-27
申请号:CN202410544992.8
申请日:2024-05-04
Applicant: 中国科学院生物物理研究所
IPC: G06T3/4053 , G06N3/0464 , G06N3/0455 , G06N3/08
Abstract: 本申请公开了一种以频域‑空域对齐为基础的显微图像时间序列进行超分辨处理的方法,包括:提供针对生物样本的由P个低分辨荧光显微图像组成的低分辨荧光显微图像序列,其中,P是大于3的正整数;以及令所述低分辨荧光显微图像序列经过一由特征提取模块、特征传播与对齐模块、以及重建模块组成的超分辨处理系统。
-
公开(公告)号:CN113781298B
公开(公告)日:2023-09-15
申请号:CN202110898813.7
申请日:2021-08-05
Applicant: 中国科学院生物物理研究所
IPC: G06T3/40 , G06N3/08 , G06N3/0464 , G06V10/82 , G06V10/80
Abstract: 本发明提供了一种超分辨率图像的处理方法及装置、电子设备、存储介质,该方法包括:获取含有多种生物结构的超分辨率图像;通过将所述超分辨率图像输入预设卷积神经网络进行特征提取,输出与所述超分辨率图像对应的多色超分辨率图像;其中,所述预设卷积神经网络为利用不同生物结构的超分辨图像数据集训练得到的多通道卷积神经网络。通过本发明,解决了相关技术中需要拍摄多张超分辨图像实现多色超分辨率成像,进而导致多色超分辨率成像操作复杂、效率低等的技术问题。
-
公开(公告)号:CN115272123B
公开(公告)日:2023-08-08
申请号:CN202210921473.X
申请日:2022-08-02
Applicant: 中国科学院生物物理研究所
IPC: G06T5/00 , G06N3/0464 , G06N3/08
Abstract: 本申请公开了自监督三维显微图像去噪方法和系统,其在荧光显微成像系统中使用,所述荧光显微成像系统包括探测物镜,所述自监督三维显微图像去噪方法包括:提供自监督三维显微图像去噪系统,所述自监督三维显微图像去噪系统包括计算机可读存储介质,其中存储有能够由计算机调用执行的去噪神经网络模型;利用所述荧光显微成像系统的探测物镜采集体现生物样本、特别是活体生物样本的三维显微图像体栈;使用所采集的荧光图像体栈对所述去噪神经网络模型进行自监督训练;在所述去噪神经网络模型已经训练完毕的情况下,利用去噪神经网络模型对所采集的同一荧光图像体栈进行图像去噪处理。
-
公开(公告)号:CN116721017B
公开(公告)日:2024-11-12
申请号:CN202310735660.3
申请日:2023-06-20
Applicant: 中国科学院生物物理研究所
IPC: G06T3/4053 , G06T3/4046 , G06T5/60 , G06T5/70 , G06N3/045 , G06N3/0455 , G06N3/0464 , G06N3/0895 , G06N3/084
Abstract: 本申请公开了一种自监督显微图像超分辨处理方法,包括:取决于光学成像系统的类型利用计算机对原始荧光图像数据进行图像预处理以获得训练集,在计算机中利用训练集训练对图像去噪与超分辨处理的神经网络,神经网络包括去噪部分以及解卷积部分,训练集包括输入图像数据以及真值输入图像数据,训练用输入图像先经去噪部分处理为去噪图像,再经解卷积部分处理为解卷积图像,去噪图像与训练用目标图像一起计算去噪损失,解卷积图像经过取决于光学成像系统的类型的退化处理后与训练用目标图像一起计算解卷积损失;利用训练完毕的神经网络对原始荧光图像数据或者利用光学成像系统对同一生物样本采集的附加荧光图像数据进行处理。
-
公开(公告)号:CN116721017A
公开(公告)日:2023-09-08
申请号:CN202310735660.3
申请日:2023-06-20
Applicant: 中国科学院生物物理研究所
IPC: G06T3/40 , G06T5/00 , G06N3/045 , G06N3/0455 , G06N3/0464 , G06N3/0895 , G06N3/084
Abstract: 本申请公开了一种自监督显微图像超分辨处理方法,包括:取决于光学成像系统的类型利用计算机对原始荧光图像数据进行图像预处理以获得训练集,在计算机中利用训练集训练对图像去噪与超分辨处理的神经网络,神经网络包括去噪部分以及解卷积部分,训练集包括输入图像数据以及真值输入图像数据,训练用输入图像先经去噪部分处理为去噪图像,再经解卷积部分处理为解卷积图像,去噪图像与训练用目标图像一起计算去噪损失,解卷积图像经过取决于光学成像系统的类型的退化处理后与训练用目标图像一起计算解卷积损失;利用训练完毕的神经网络对原始荧光图像数据或者利用光学成像系统对同一生物样本采集的附加荧光图像数据进行处理。
-
公开(公告)号:CN115984107B
公开(公告)日:2023-08-11
申请号:CN202211649675.X
申请日:2022-12-21
Applicant: 中国科学院生物物理研究所
IPC: G06T3/40 , G06T5/00 , G06V10/774 , G06N3/0455 , G06N3/0464 , G06N3/084
Abstract: 本申请公开自监督多模态结构光显微重建方法和系统。本申请通过“图像扰动”方式由原始荧光图像产生训练用输入数据集和训练用输入数据集,并以此训练去噪神经网络,在利用训练好的去噪神经网络对超分辨率图像进行去噪处理,能够高效地对由低信噪比的原始荧光图像进行超分辨率重建后的图像进行去噪,从前确保高精度地复原生物样本结构。
-
公开(公告)号:CN116402681B
公开(公告)日:2024-11-22
申请号:CN202310325238.0
申请日:2023-03-30
Applicant: 中国科学院生物物理研究所
IPC: G06T3/4053 , G06T5/70 , G06T3/4007 , G06T5/50 , G06N3/084 , G06N3/088
Abstract: 本申请公开了自监督多模态结构光显微重建方法和系统,包括:利用结构光激发生物样本以获取自生物样本的受激产生的J个原始荧光图像序列(Y),其中,J是大于或等于1的整数,每个原始荧光图像序列(Y)包括S幅荧光图像,S是大于或等于2的整数,每幅荧光图像具有M*N的像素尺寸,其中M和N是偶数,针对所述J个原始荧光图像序列(Y)的每个原始荧光图像序列(Y)产生训练集;基于所述训练集训练去噪用神经网络;利用标准结构光超分辨率重建算法对所述J个原始荧光图像序列(Y)的每个原始荧光图像序列(Y)中的S幅荧光图像进行超分辨率重建,以形成超分辨率图像,将该超分辨率图像作为所述去噪用神经网络的输入,以获得最终的超分辨率重建图像。
-
-
-
-
-
-
-
-
-