-
公开(公告)号:CN113470035A
公开(公告)日:2021-10-01
申请号:CN202110657558.7
申请日:2021-06-15
申请人: 桂林电子科技大学 , 桂林智慧产业园有限公司
摘要: 本发明的目的是提供一种基于序列图像和误差网络辅助校正图像分割结果的方法,包括以下步骤:S1:获得三维新冠肺炎CT图像并预处理;S2:预训练分割网络;S3:分割结果与金标准作差取绝对值得到误差金标准;S4:预训练误差网络;S5:协同训练分割和误差网络;S6:测试分割网络得到分割结果。该方法能够有效地利用图像的序列信息,并通过学习分割网络的分割误差来协同调整分割网络,提升其性能的性能,即为了提升CT图像中病灶分割精度,提升分割效率。
-
公开(公告)号:CN113807426A
公开(公告)日:2021-12-17
申请号:CN202111068996.6
申请日:2021-09-13
申请人: 桂林智慧产业园有限公司 , 桂林明中人工智能科技产业有限公司
摘要: 本文提出一种新的一致性规范化方法,研究半监督的语义分割问题,是一种简单而有效的半监督分割方法,通过使用从一个网络中获得的one‑hot伪监督图来监督另外一个网络,使两个具有相同结构但不同初始化扰动的网络对同一输入图的预测保持一致。同时,具有了伪分割图的未标记数据可作为扩充训练数据来提高性能。
-
公开(公告)号:CN113762270A
公开(公告)日:2021-12-07
申请号:CN202111056809.2
申请日:2021-09-13
申请人: 桂林明中人工智能科技产业有限公司 , 桂林智慧产业园有限公司
摘要: 本发明提出一种多标签深度监督方法,通过整合不同类型的监督信号深入到误差网络的解码器各层,灵活利用不同注释类型:完全标记图像、具有boundingbox标记图像、仅有全局标注图像或根本没有标注图像,提高语义分割性能。伪标签在后期训练逐渐趋于稳定,比只在标记数据上正常监督训练更加准确。同时,伪标签可扩充数据集。
-
公开(公告)号:CN117393113A
公开(公告)日:2024-01-12
申请号:CN202210732011.3
申请日:2022-06-27
申请人: 岭南现代农业科学与技术广东省实验室肇庆分中心 , 桂林电子科技大学
IPC分类号: G16H30/20 , G16H30/40 , G16H50/20 , G06T5/70 , G06T5/73 , G06T5/80 , G06T7/00 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/044 , G06N3/0464 , G06N3/08 , A61B5/00
摘要: 本发明公开了一种基于深度学习的阿尔兹海默症辅助诊断系统及终端,包括:预处理模块对原始FMRI结构像进行预处理,并提取预处理后的FMRI图像中ROI的时间序列构建多尺度一维卷积神经网络和两层堆叠的循环神经网络相结合的深度学习模型,该模型旨在提取FMRI图像中的时间特征。多尺度一维卷积神经网络可以解释多个不同时段的大脑活动,增强了该模型的表征能力,两层堆叠的循环神经网络能识别了更高级别的时序信息。将该模型应用到基于深度学习的AD三个阶段的分类预测任务中,利用交叉验证法得到最后的分类性能,根据分类结果判断受试者是否为阿尔兹海默症患者。该系统采用深度学习技术,对受试者是否患有阿尔兹海默症进行预测,为临床诊断提供辅助功能。
-
公开(公告)号:CN117389258A
公开(公告)日:2024-01-12
申请号:CN202210732015.1
申请日:2022-06-30
申请人: 岭南现代农业科学与技术广东省实验室肇庆分中心 , 桂林电子科技大学
摘要: 本发明公开了一种基于深度强化学习的水下消杀机器人路径规划算法,首先对于已知的水下环境进行建模,设定水下消杀机器人的当前位置与目标位置;然后在仿真环境中针对已知的水下环境设置奖励函数,并利用基于深度强化学习的DQN算法训练深度神经网络;最后将训练好的深度神经网络写入水下消杀机器人的控制模块,并使其按照规划的路线行进,同时规避路线上的障碍物;该算法既保证了水下消杀机器人航线路线的效率,并且可以在遇到突发状况时进行应变,增强了水下消杀机器人在面对复杂水域情况时的适应性;该算法可应用于搭载了避障声纳能自主航行的水下消杀机器人。
-
公开(公告)号:CN117332198A
公开(公告)日:2024-01-02
申请号:CN202210683385.0
申请日:2022-06-20
申请人: 岭南现代农业科学与技术广东省实验室肇庆分中心 , 桂林电子科技大学
摘要: 本发明基于神经网络提出了一种修正红外测温仪测量误差的方法,涉及传感器和机器学习领域。本发明主要解决的是现有误差修正方法因为考虑引起误差的因素不充分而导致修正效果不佳的问题,具体步骤为:搭建采集训练数据的环境,在搭建的环境中采集训练数据,构建神经网络,使用采集的数据训练神经网络,使用训练好的神经网络修正体温。本发明与现有的误差修正方法相比,不仅考虑了环境温度对测量误差的影响,还考虑了湿度这个因素,并使用神经网络拟合出红外测温仪读数、耳标读数、环境温度和环境湿度与接触式体温计读数的函数关系。使用该函数关系即可对体温做出一个较为合理的估计,从而修正测量结果,改善精度。
-
公开(公告)号:CN115239367A
公开(公告)日:2022-10-25
申请号:CN202210739048.9
申请日:2022-06-29
申请人: 广东海纳德生物芯片技术有限公司 , 桂林电子科技大学
IPC分类号: G06Q30/02 , G06F16/958 , G06F16/951 , G06N3/04 , G06N3/08
摘要: 本发明公开了一种基于blink内核的食品网页广告识别方法及装置。方法包括:建立网页数据爬取工具对大量网页依照已知广告过滤规则进行爬取;建立浏览器渲染引擎内的图像处理接口;建立深度学习模型以对输入图像进行分类;通过网页数据爬取工具对用于浏览器渲染引擎内的图像处理接口进行初始化,以使网页数据爬取工具向深度学习模型传输图像数据;深度学习模型通过使用标记好的图像数据,最终能够实现网页广告元素的准确识别,进而通过浏览器渲染引擎直接清除对应广告元素解决了blink内核浏览器下部分网页广告难以被传统方式过滤的问题。
-
公开(公告)号:CN117405678A
公开(公告)日:2024-01-16
申请号:CN202210763696.8
申请日:2022-07-01
申请人: 岭南现代农业科学与技术广东省实验室肇庆分中心 , 桂林电子科技大学
IPC分类号: G01N21/88 , G01N21/954 , G01N21/958 , G01N21/01 , G06N3/0464 , G06N3/08 , G06T7/00 , G06V10/82
摘要: 本发明公布了一种基于深度学习的玻璃瓶内壁裂纹检测装置。该装置主要包括三个部分:控制器装置,图像采集装置与裂纹检测装置。控制器装置包含有激光发射器,光电传感器和主控器,其中激光发射器与光电传感器负责检测玻璃瓶是否已经传输至检测装置下,主控器负责控制履带停止传输。图像采集装置用以获取玻璃瓶内壁的图像。裂纹检测装置是将获取到的图像用一个训练好的深度神经网络进行检测,判断其中是否含有裂纹,并将结果返回值主控器内。本检测装置结构简单,整体成本低,易于搭建,内壁图像采集精准且效率高,并且采用了最新的人工智能技术,使用神经网络对图像进行识别,因此适用于对玻璃瓶内壁图像进行实时检测。
-
公开(公告)号:CN117351407A
公开(公告)日:2024-01-05
申请号:CN202210734049.4
申请日:2022-06-29
申请人: 岭南现代农业科学与技术广东省实验室肇庆分中心 , 桂林电子科技大学
摘要: 本发明公开了一种基于多级注意力算法的密集物群监测系统。物群智能监测系统由摄像头模块,嵌入式计算平台以及Web服务器组成。其中,摄像头模块实时采集监控场景的物群图像信息,并传输至嵌入式计算平台,嵌入式计算平台搭载物群智能识别算法对物群图像信息进行分析,将所得分析图通过WIFI网络传给Web服务器中进行解析,得到数量,定位,密度等信息,可供管理员在网站中查看。网站同时具有预警功能,分析数量超过阈值时,网站将进行预警及嵌入式设备播放聚集警报。其中,所述物群智能识别算法为结合了通道注意力,感受野注意力,空间注意力的多级注意力算法。
-
公开(公告)号:CN117333764A
公开(公告)日:2024-01-02
申请号:CN202210670550.9
申请日:2022-06-21
申请人: 岭南现代农业科学与技术广东省实验室肇庆分中心 , 桂林电子科技大学
IPC分类号: G06V20/10 , G06N3/0464 , G06N3/08 , G06V10/10 , G06V10/764 , G06V10/82
摘要: 本发明公布了一种基于深度学习的番茄病虫害检测装置与方法。该装置主要包括:图像采集终端,用于存储与识别番茄叶片图像的服务器,客户端和预警模块。图像采集终端包括外盒,置物板,摄像头,LED光源,控制面板,电源开关,摄像开关,和数据传送模块;服务器负责利用已经训练好的深度学习神经网络识别传送过来的图像并附上检测结果标签,同时根据标签分组存储已标注的图像;客户端负责显示番茄病害种类信息;预警模块根据番茄病虫害种类信息进行病虫害预警。本检测装置与深度学习方法将深度学习应用于番茄病虫害自动识别中,无需对图像进行预处理,识别精度高,时效性强,可节约大量时间与人力成本,实现对病害植株的实时检测与及时施药,具有较好的应用前景。
-
-
-
-
-
-
-
-
-