一种基于领域自适应的协同训练方法

    公开(公告)号:CN112016594A

    公开(公告)日:2020-12-01

    申请号:CN202010778786.5

    申请日:2020-08-05

    申请人: 中山大学

    发明人: 李冠彬 赵赣龙

    摘要: 本发明公开了一种基于领域自适应的协同训练方法,利用其中一方的高置信度输出对另一方进行训练,对两方输出置信度均低的候选区域利用最大化分类器差异方法进行处理;另外,在骨干网络的特征对齐上,利用了RPN的输出,用以计算特征图上每个点的前景概率,对前景概率较大的区域,在特征对齐时给予更大的权重;实现提高模型在无标签领域上的目标检测能力,降低目标检测模型对标注数据的需求,减轻对人力资源的依赖。

    一种RGBD图像语义分割方法
    62.
    发明授权

    公开(公告)号:CN107403430B

    公开(公告)日:2020-08-07

    申请号:CN201710453788.5

    申请日:2017-06-15

    申请人: 中山大学

    IPC分类号: G06T7/10 G06N3/04

    摘要: 本发明提供了一种RGBD图像语义分割方法,包括以下步骤:S1、采集训练样本的数据;S2、构建可配置的深度模型,并将训练样本的数据输入深度模型,以对深度模型进行训练;S3、获取需要进行语义分割的彩色图及其对应的深度图,利用训练后的深度模型对彩色图和深度图进行分析,预测RGBD图像中每个像素所属的物体类别;S4、根据S3的结果,形成并输出预测的图像语义分割图。本发明利用深层次的卷积神经网络和长短时记忆网络以及大数据,能有效地融合彩色图像和深度图像的特征,并且能有效地挖掘图像中的上下文信息,拥有很高的准确率。

    一种语言描述引导的视频时序定位方法

    公开(公告)号:CN111274438A

    公开(公告)日:2020-06-12

    申请号:CN202010040451.3

    申请日:2020-01-15

    申请人: 中山大学

    发明人: 李冠彬 吴捷 林倞

    摘要: 本发明公开了一种语言描述引导的视频时序定位方法,包括如下步骤:步骤S1,提取跨模态特征的多模态特征编码网络,以用于学习视频和自然语言的跨模态信息,获得所输入的语言和视觉模态的多模态融合表征;步骤S2,采用层次化的树状结构策略,对跨模态信息进行层次化分解;步骤S3,采用渐进强化学习机制,通过两个任务导向的奖励来提供正确的学分分配,鼓励树状结构中的不同策略的相互促进,本发明通过基于树结构的渐进强化学习框架来模拟人类由粗到精的决策过程,可以有效地分解复杂的动作策略,在增加搜索空间的同时减少搜索步骤的数量,以更合理的方式获得更令人印象深刻的结果。

    基于深度学习的弱监督视频时序动作定位的方法及系统

    公开(公告)号:CN111079646A

    公开(公告)日:2020-04-28

    申请号:CN201911296268.3

    申请日:2019-12-16

    申请人: 中山大学

    发明人: 李冠彬 刘劲 林倞

    摘要: 本发明公开了一种基于深度学习的弱监督视频时序动作定位方法及系统,该方法包括:S1,提取视频中当前帧及前一帧,利用光流估算网络提取光流,并连同等间隔对视频采样的帧输入双流动作识别网络提取视频特征;S2,将视频特征进行语义一致性建模,获得嵌入特征;S3,训练分类模块将嵌入特征映射到类激活序列;S4,采用注意力模块更新视频特征;S5,将更新后的视频特征作为下一次循环的输入,重复S2-S4直到停止;S6,将每次循环产生的类激活序列融合,计算估计的动作类别与真实类别标签的分类损失;S7,将每次循环的嵌入特征融合计算动作特征间的相似性损失;S8,根据分类损失及相似性损失得到目标损失,更新系统模型参数。

    一种基于深度学习的人群计数模型及其实现方法

    公开(公告)号:CN110705344A

    公开(公告)日:2020-01-17

    申请号:CN201910772643.0

    申请日:2019-08-21

    申请人: 中山大学

    摘要: 本发明公开了一种基于深度学习的人群计数模型及其实现方法,所述方法包括:步骤S1,获取人群图像,对获取的人群图像进行预处理并利用标注信息产生对应的人群密度图;步骤S2,将输入的人群图像缩放成多个尺度版本,通过多个子网络提取各个尺度的特征,并利用特征增强模块增强各个尺度的特征;步骤S3,将多个子网络产生的特征结合,生成估计的人群密度图;步骤S4,利用估计的人群密度图与真实的人群密度图计算损失,更新模型参数;步骤S5,利用不同人群图像多次迭代式地进行步骤S1-S4的训练过程,直到符合停止的条件。

    一种多跳视觉问题推理模型及其推理方法

    公开(公告)号:CN110110043A

    公开(公告)日:2019-08-09

    申请号:CN201910290520.3

    申请日:2019-04-11

    申请人: 中山大学

    摘要: 本发明公开了一种多跳视觉问题推理模型及其推理方法,所述模型包括:多跳视觉问题推理数据集建立单元,用于通过将场景图和知识库相融合成知识图,利用知识图构造包含多跳知识推理问答对的数据集;卷积神经网络,用于提取输入图像的图像特征;长短期记忆网络,用于提取问题特征;知识路由模块化网络,用于将问题解析为查询树,其中查询树是问题的推理过程的符号化表达,并结合查询树和知识库,在知识图中提取出正确的关系或实体,进行多跳推理以给出最终的回答。

    一种循环发现关注区域识别多标签图像的方法

    公开(公告)号:CN107577983A

    公开(公告)日:2018-01-12

    申请号:CN201710562354.9

    申请日:2017-07-11

    申请人: 中山大学

    IPC分类号: G06K9/00 G06K9/62

    摘要: 本发明提供一种循环发现关注区域识别多标签图像的方法,本方法提出的多标签图像识别框架,不仅与候选区域无关,而且可以自动地在图像中发现语义相关的尺度不同的区域,并同时获取这些区域间的上下文依赖;对于空间变换网络,我们还提出了三个约束。它们不仅有助于定位更具语义信息的区域,而且可以进一步提高多标签图像识别的精确度;该发明不仅有效地提高了多标签图像的识别精确度,而且在很大程度上提高了识别的效率。

    基于过滤驱动的文件访问控制方法、系统及过滤器管理器

    公开(公告)号:CN101916349A

    公开(公告)日:2010-12-15

    申请号:CN201010241531.1

    申请日:2010-07-30

    申请人: 中山大学

    发明人: 罗笑南 李冠彬

    IPC分类号: G06F21/22 G06F9/44

    摘要: 本发明公开了一种基于过滤驱动的文件访问控制方法、系统及过滤器管理器。该方法包括:在访问控制系统中加入过滤器管理器;过滤器管理器的创建及加载模块进行过滤驱动的创建和加载;过滤器管理器的注册模块注册需过滤的操作;过滤器管理器的识别模块对目标文件进行识别;过滤器管理器的通信模块进行过滤驱动与应用程序的通信;所述过滤器管理器的过滤模块对文件操作进行过滤。本发明方法在不需要重新设计文件系统和底层驱动的前提下,在Windows系统中通过文件过滤驱动实现了对文件访问的拦截和监控,在系统底层保证了文件数据的安全性。

    基于蚁群算法的飞机进港调度方法

    公开(公告)号:CN101477642A

    公开(公告)日:2009-07-08

    申请号:CN200810220655.4

    申请日:2008-12-31

    申请人: 中山大学

    IPC分类号: G06N3/00

    摘要: 飞机进港排序和调度问题(Arrival sequencing and scheduling,ASS)是空中交通流量管理的一个重要研究内容。高效率地对ASS问题进行优化对于提高机场的效率、空间利用率以及安全性至关重要。本发明考虑动态环境中的ASS问题,引入移动域控制的概念,并将蚁群算法运用到飞机进港排序和调度中。仿真结果表明基于移动域控制策略的蚁群算法不仅能有效解决动态环境中ASS问题,而且能大大降低计算复杂度,适合于对终端区到达航班进行实时排序和调度。

    一种基于胶囊内镜视频的克罗恩病自动诊断系统

    公开(公告)号:CN118366645B

    公开(公告)日:2024-09-06

    申请号:CN202410782428.X

    申请日:2024-06-18

    摘要: 本发明公开了一种基于胶囊内镜视频的克罗恩病自动诊断系统,上述系统通过视频获取模块获取全程视频,通过小肠视频识别模块对全程视频进行分类,提取目标视频中的小肠段视频,通过小肠病变检测模块对上述小肠段视频中每一视频帧进行特征提取,确定每一视频帧中存在病变的概率,通过目标视频帧提取模块,将上述小肠段视频平均分为若干段视频,对于每一段视频,将视频内存在病变的概率最高的若干视频帧,作为目标视频帧,通过克罗恩病识别模块,确定克罗恩病的诊断结果。通过实施本发明,克服了不能将全程胶囊内镜视频输入克罗恩病识别模型这一缺点,实现对克罗恩病进行全自动高效诊断。