-
公开(公告)号:CN118864923A
公开(公告)日:2024-10-29
申请号:CN202410835951.4
申请日:2024-06-26
IPC分类号: G06V10/764 , G06V10/774 , G06F17/18 , G06N3/04 , G06N3/09
摘要: 本申请涉及一种基于显式边际均衡的小样本目标检测方法及装置,其中,方法包括:计算每个基础目标类对应的所有样本实例的平均特征向量,并根据平均特征向量确定最大边际损失和训练阶段损失函数,且训练预设检测器以生成初始检测器;确定拓展目标类对应的类别系数向量,且根据类别系数向量计算类别均衡系数,以拓展最大边际损失得到显式边际均衡损失;计算每个样本实例的梯度图,并根据梯度图和预设梯度阈值确定每个样本实例对应的实例扰动,且通过显式边际均衡损失和实例扰动微调初始检测器,得到微调后的初始检测器,以利用微调后的初始检测器进行目标检测操作。由此,解决了现有技术缺乏适当的边际约束条件,难以缓解模型的判别与表示之间的内在矛盾等问题。
-
公开(公告)号:CN118570714A
公开(公告)日:2024-08-30
申请号:CN202410280872.1
申请日:2024-03-12
申请人: 中国科学院大学
摘要: 本发明公开了一种应急事件监控方法及应用该方法的便携式监控系统,包括以下步骤:获取监控区域的图片,将图片进行不同倍数缩放,获得多张不同尺寸的图片;对不同尺寸的图片分别进行特征提取,将提取的特征图进行融合,获得融合特征图;在图片中设置候选点,基于特征图对候选点进行分类,将位于图片中的人头位置的候选点与位于图片中背景位置的候选点区分开,保留位于图片中人头位置的候选点,进而识别获得图片中的人员总数与位置。本发明公开的应急事件监控方法及应用该方法的便携式监控系统,对设备算力要求低,设备体积小、便于携带移动可灵活部署。
-
公开(公告)号:CN118097179A
公开(公告)日:2024-05-28
申请号:CN202211425432.8
申请日:2022-11-15
申请人: 华为云计算技术有限公司 , 中国科学院大学
IPC分类号: G06V10/52 , G06V10/774 , G06V10/82 , G06N3/0464
摘要: 本申请实施例公开了一种模型预训练方法和相关设备,用于提升预训练模型的精确度和模型在下游任务的表现。本申请实施例方法包括:通过N个层级的特征提取网络,获取待处理图像对应的N组不同尺度的输出特征,N≥2,且N为整数。处理第M层级的输出特征和第M‑1层级的输出特征,得到第M‑1层级的聚合特征,M‑1层级的聚合特征与第M‑1层级的输出特征尺度相同,第M层级的输出特征对应于第M层级的特征提取网络,2≤M≤N,且M为整数。通过第M‑1层级的解码器网络处理第M‑1层级的聚合特征,得到第M‑1层级的解码结果。对模型进行迭代训练,更新特征提取网络的参数和解码器网络的参数,直至模型收敛或达到预设的迭代次数。
-
公开(公告)号:CN117991900A
公开(公告)日:2024-05-07
申请号:CN202410090891.8
申请日:2024-01-23
申请人: 中国科学院大学 , 聚时科技(上海)有限公司
IPC分类号: G06F3/01 , G06N3/0455 , G06N3/084 , G06F18/25
摘要: 本发明公开了一种双分支视觉语言多模态交互式方法,包括:构建视觉语言双分支模型,视觉语言双分支模型中设置有视觉识别模块和语言交互模块;预训练视觉识别模块;同时训练视觉识别模块和语言交互模块,训练过程中通过查询的方式将语言交互模块输出的信息传入视觉识别模块,指导视觉识别模块输出目标定位框;提取图像中目标定位框内特征信息,获得目标特征向量;将目标特征向量填充至语言中需要指代的位置,获得语言替代特征,对语言交互模块进行训练;对视觉语言双分支模型进行梯度反向传播,获得视觉语言双分支识别模型,采用该模型进行人机交互。本发明公开的方法,可以在多轮对话中的任何时刻参与指代和定位任务,指代和定位性能优越。
-
公开(公告)号:CN114399731B
公开(公告)日:2022-12-20
申请号:CN202111676774.2
申请日:2021-12-31
申请人: 中国科学院大学
摘要: 本发明公开了一种单粗点监督下的目标定位方法,所述方法包括获取进行目标定位训练的标注点的过程,所述过程包括以下步骤:步骤1,对目标进行粗点标注或获取已有原始标注;步骤2,将粗点标注或已有原始标注进行细化,获得改善后的标注。本发明公开的单粗点监督下的目标定位方法,采用粗点注释策略,使用细化点作为训练定位器的监督,解决了现有POL方法严重依赖于难以定义的准确关键点注释的问题,扩展了基于点的物体定位的应用范围,提高了目标定位性能。
-
公开(公告)号:CN113033644B
公开(公告)日:2021-12-07
申请号:CN202110290780.8
申请日:2021-03-18
申请人: 中国科学院大学
摘要: 本发明公开了一种基于凸包特征自适应的旋转密集目标检测方法,所述方法包括训练阶段和测试阶段,其中,所述训练阶段包括以下步骤:步骤1,获得训练图像的特征图;步骤2,利用特征图获得候选凸包分类表征;步骤3,对凸包分类表征进行优化,实现凸包生成;步骤4,获得不同目标的候选凸包集;步骤5,实现凸包与目标之间的自适应匹配。本发明公开的基于凸包特征自适应的旋转密集目标检测方法,实现了最优特征自适应,缓解了特征混叠;对遥感(航空)以及密集自然场景的目标检测具有应用价值。
-
公开(公告)号:CN113239981A
公开(公告)日:2021-08-10
申请号:CN202110444230.7
申请日:2021-04-23
申请人: 中国科学院大学
摘要: 本发明公开了一种局部特征耦合全局表征的图像分类方法,所述方法包括训练部分和测试部分,其中,训练部分包括以下步骤:步骤1,建立网络模型;步骤2,提取训练集图片特征;步骤3,获得训练集图片特征图;步骤4,对网络参数进行优化调整。本发明提供的局部特征耦合全局表征的图像分类方法,显著增强了局部特征的全局感知能力和全局表征的局部细节;在相似的参数量和计算代价的情况下,能够一致地超过传统的CNN网络以及视觉Transformer网络的性能,对于图像识别具有重要应用价值。
-
公开(公告)号:CN113159116A
公开(公告)日:2021-07-23
申请号:CN202110262177.9
申请日:2021-03-10
申请人: 中国科学院大学
摘要: 本发明公开了一种基于类间距平衡的小样本图像目标检测方法,所述方法包括训练阶段和测试阶段,所述训练阶段包括以下步骤:步骤1,利用基类数据训练网络模型;步骤2,利用新颖类数据与基类数据组合对网络模型进行微调训练。本发明公开的基于类间距平衡的小样本图像目标检测方法,无需大量数据标注,减少了人工标注成本,降低了不同类原型向量之间的混叠,提高了神经网络对查询图像的目标检测精度;对小样本学习、增量学习等有重要意义,对于自然场景图像等领域的目标检测具有应用价值。
-
公开(公告)号:CN111488932B
公开(公告)日:2021-03-16
申请号:CN202010281494.0
申请日:2020-04-10
申请人: 中国科学院大学
摘要: 本发明公开了一种基于帧率感知的自监督视频时‑空表征学习方法,所述方法包括对视频进行采样,构建训练数据集;提取采样得到的视频段的视频特征;建立自监督模型进行学习;对得到的自监督模型进行测试的步骤。本发明所述的方法学习所使用的标签是自动产生的,并不花费任何人工标注成本,具有一定的适用性和扩展性;通过将判别感知模型和生成感知模型进行联合,增强了视频时‑空特征的表达能力。
-
公开(公告)号:CN111950608A
公开(公告)日:2020-11-17
申请号:CN202010740512.7
申请日:2020-07-28
申请人: 中国科学院大学
摘要: 本发明公开了一种基于对比损失的域自适应物体检测方法,该方法包括以下步骤:步骤1,训练检测器;步骤2,对检测器进行初步微调;步骤3,对初步微调后的检测器进行再次微调;步骤4,利用微调后的检测器进行物体检测。本发明所公开的方法采用域对比法来解决跨域情境下的物体检测问题,通过最小化域对比损失,在增强特征的迁移性的同时,保留特征的判别性,取得了优越的性能,适用于跨域、多场景下的物体检测。
-
-
-
-
-
-
-
-
-