-
公开(公告)号:CN113128354B
公开(公告)日:2022-07-19
申请号:CN202110330906.X
申请日:2021-03-26
申请人: 中山大学中山眼科中心 , 中山大学
摘要: 本发明公开了一种洗手质量检测方法及装置,对洗手视频进行预处理后得到若干视频帧集,用视频流深度学习模型对若干视频帧集进行特征提取,并对所述特征进行分类处理,得到多个第一分类概率结果;对每个第一分类概率结果进行概率平滑处理得到多个第二分类概率结果;对多个第二分类概率结果进行结果匹配和数值转换,得到不同洗手步骤的洗手步骤质量评价结果,即洗手视频的质量评价结果。采用本发明技术方案能够客观评价用户的洗手步骤和流程,有利于洗手质量评价的推广,提高用户的洗手质量。
-
公开(公告)号:CN114724661A
公开(公告)日:2022-07-08
申请号:CN202210326501.3
申请日:2022-03-30
申请人: 中山大学中山眼科中心 , 中山大学
IPC分类号: G16H10/60
摘要: 本发明公开了一种基于区块链技术的多源临床试验数据分享方法,该方法通过智能合约对区块链的各个参与方进行身份验证;所述参与方为可以提供受试者的临床试验数据的系统或平台;各个参与方将同一受试者存储于己方的临床试验数据进行秘密分享;所述计算节点根据业务需求调用SMPC算法对所述参与方秘密分享的临床试验数据进行计算,并将计算结果发送至重构参与方,所述重构参与方为需要获取计算结果的参与方;所述重构参与方采用MPI通信中的收集函数接收所述计算结果并针对所述计算结果进行秘密重构,得到所述计算结果的原始值。本发明技术方案实现了在保障临床试验数据的安全性的同时,对临床试验数据的数据质量和数据准确性的高效监管。
-
公开(公告)号:CN110013216B
公开(公告)日:2022-04-22
申请号:CN201910184479.1
申请日:2019-03-12
申请人: 中山大学中山眼科中心
IPC分类号: A61B3/117
摘要: 本发明涉及一种人工智能白内障分析系统,包括:模式识别模块,用于识别输入的眼部图像的拍照模式,所述拍照模式根据拍摄所述眼部图像时裂隙灯的裂隙宽度和/或是否有进行散瞳处理进行划分;初步分析模块,用于对不同拍照模式的眼部图像选用相应的深度学习模型,利用深度学习模型基于眼部图像中晶状体的特征进行分析,并结合病因及严重程度指导进一步分类。本发明可以针对不同拍照方式下的眼部图像采用深度学习模型进行白内障智能分析,提高了分析准确率。
-
公开(公告)号:CN114188018A
公开(公告)日:2022-03-15
申请号:CN202111438946.2
申请日:2021-11-30
申请人: 中山大学附属口腔医院 , 中山大学中山眼科中心
摘要: 本发明公开了一种显微根尖手术预后的预测方法及装置,所述方法包括:获取第一病例数据集后,计算第一病例数据集内的数据之间的相关性,并根据相关性得到第二病例数据集。将第二病例数据集和愈合效果输入至机器学习模型中,以使机器学习模型进行训练后生成显微根尖手术预后预测模型,其中,愈合效果为第二病例数据集中每个患者对应的显微根尖手术术后一年的根尖病损愈合情况。将待预测病例数据输入至显微根尖手术预后预测模型中,以使显微根尖手术预后预测模型输出显微根尖手术预后的预测结果。采用本发明实施例能提高对于显微根尖手术预后的预测准确性。
-
公开(公告)号:CN114005171A
公开(公告)日:2022-02-01
申请号:CN202111240105.0
申请日:2021-10-25
申请人: 中山大学中山眼科中心
摘要: 本发明涉及眼部视频图像识别处理技术,具体为基于眼表染色视频图像中目标区域的识别方法及系统,其方法包括:采集目标对象的眼表染色视频图像和眼部体检数据,提取眼表染色视频图像的关键时间点;以目标对象的眼部体检数据为分类依据,对目标区域对应的图像数据进行映射,以所提取的关键时间点作为主要特征标签,将训练集样本输入至已初始化的神经网络模型中进行训练,根据训练结果调试神经网络模型参数至最优,得到目标区域识别模型;将获取的待识别的眼表染色视频图像输入至目标区域识别模型,确定待识别视频图像中目标区域的最终视频特征。本发明解决了缺少利用荧光素染色眼表视频数据作为识别手段以确定用户眼健康指标数据的问题。
-
公开(公告)号:CN114004460A
公开(公告)日:2022-02-01
申请号:CN202111184669.7
申请日:2021-10-12
申请人: 中山大学中山眼科中心 , 云智道智慧医疗科技(广州)有限公司
IPC分类号: G06Q10/06 , G06Q40/04 , G06K9/62 , G06V10/774
摘要: 本发明提供了一种基于区块链的医疗图像标注运营方法和装置,所述方法包括:向平台上用户展示医疗图像标注任务并产生第一业务数据,通过区块链系统存储第一业务数据;响应第二用户完成医疗图像标注任务的确认操作,接收所述第二用户上传的、与医疗图像标注任务对应的可用数据集;当所述可用数据集满足医疗图像标注任务的要求时,生成第二业务数据,并通过所述区块链系统存储第二业务数据,以使所述区块链系统根据所述第二业务数据在第二用户对应的区块链账户上增加相应的积分。本发明将医疗图像标注数据系统化和平台化,标注人员的劳动成果可通过积分的方式记录和积累,提高人员的工作积极性和标注水平,同时提高了医疗图像的标注质量。
-
公开(公告)号:CN113948202A
公开(公告)日:2022-01-18
申请号:CN202111207202.X
申请日:2021-10-15
申请人: 中山大学中山眼科中心
摘要: 本发明公开了一种眼科术前单项检查需求的评估、方案生成方法及装置,通过获取患者的人口学及临床基本信息数据;对信息数据进行预处理,生成信息数据对应的结构化信息数据集;将结构化信息数据集输入到单项检查项目的预训练算法模型中,以使预训练算法模型对单项检查中出现异常结果的概率进行预测;将预测的概率与单项检查项目的预设的高风险阈值对比,输出患者对单项检查项目需求的评估结果。与现有技术相比,基于人工智能对每一个体患者的各项检查需求进行评估和判断,通过减少对人工的依赖性和减少非必要检查项目,实现高效的眼科术前检查。
-
公开(公告)号:CN113715029A
公开(公告)日:2021-11-30
申请号:CN202111130379.4
申请日:2021-09-26
申请人: 中山大学 , 中山大学中山眼科中心
IPC分类号: B25J9/16
摘要: 本发明涉及一种机械臂控制方法的自主学习方法,包括如下步骤:步骤一:对机械臂和力反馈传感器进行初始化;步骤二:设定执行元件的移动路径;步骤三:操作执行元件沿着移动路径运动至远程运动中心点,并令执行元件在给定旋转范围内完成一个旋转周期运动,获得远程运动中心点数据;步骤四:通过建立学习网络,给定学习步数n,执行元件在移动路径上开始进行n次旋转运动,每步运动后根据力反馈传感器数据对远程运动中心点和学习网络进行更新。令执行元件的运动与实际运行环境适配,将环境的形变对运动造成的偏差纳入考虑,动态地指导远程运动中心运动的调节,使机械臂在执行运动的精度提高,减小机械臂实际运动与标准运动之间的误差。
-
公开(公告)号:CN109063547B
公开(公告)日:2021-10-08
申请号:CN201810610019.6
申请日:2018-06-13
申请人: 中山大学中山眼科中心 , 中山大学
摘要: 本发明具体涉及一种基于深度学习的细胞种类鉴定方法,该方法基于深度学习来预设神经网络模型,通过滑动窗口得到多个局部图像输入神经网络模型后,再将得出来的结果进行整合,而不是直接将细胞图像输入到神经网络模型中,提高了得到细胞种类热图的精度。上述过程均为计算机的图像处理过程,相比于现有常用的细胞鉴定方法,不需要人工操作,也不需要对细胞进行侵入性的检测,具有快速、方便、非侵入、全局检测等优点。
-
公开(公告)号:CN111259743A
公开(公告)日:2020-06-09
申请号:CN202010022825.9
申请日:2020-01-09
申请人: 中山大学中山眼科中心
摘要: 本发明涉及医学图像处理技术领域,更具体地涉及一种近视图像深度学习识别模型训练方法,包括以下步骤:采集眼外观图像;对所述眼外观图像进行预处理;以人脸识别大数据库VGG-Face中的人脸图像作为第一训练数据,对VGG-16网络模型进行预训练;以预处理后的所述眼外观图像作为第二训练数据,对预训练后的所述VGG-16网络模型进行训练,得到用于近视图像识别的深度学习模型。本发明提供一种近视图像深度学习识别模型训练方法,用于辅助使用者快速、准确地判断青少年近视情况。
-
-
-
-
-
-
-
-
-