基于加速自适应步长机制的对抗样本生成方法及系统

    公开(公告)号:CN118966313A

    公开(公告)日:2024-11-15

    申请号:CN202410953097.1

    申请日:2024-07-16

    IPC分类号: G06N3/094 G06N3/0464

    摘要: 本发明公开了基于加速自适应步长机制的对抗样本生成方法及系统,方法包括:步骤一、初始化参数;步骤二、判断是否达到迭代次数,若是,执行步骤六,若否,执行步骤三;步骤三、根据第二对抗样本计算当前的梯度,计算当前一阶矩、当前二阶矩,利用当前一阶矩以及当前二阶矩更新当前的梯度,得到当前的梯度修正值;步骤四、利用当前的梯度修正值更新当前的第一对抗样本,得到更新后的第一对抗样本;步骤五、利用更新后的第一对抗样本以及当前的梯度修正值更新当前的第二对抗样本,得到更新后的第二对抗样本,返回步骤二;步骤六、输出当前迭代过程中更新后的第一对抗样本;本发明的优点在于:提高迁移性。

    一种基于非光滑函数类型的文本分类方法及系统

    公开(公告)号:CN109766443B

    公开(公告)日:2020-10-09

    申请号:CN201910023612.5

    申请日:2019-01-10

    IPC分类号: G06F16/35

    摘要: 本发明公开了一种基于非光滑函数类型的文本分类方法及系统。所述文本分类方法包括:获取样本文本的损失函数以及正则化项;根据所述损失函数以及所述正则化项构建第一目标函数;获取迭代次数,并根据所述迭代次数确定变步长;根据所述变步长构建K次迭代模型;根据所述K次迭代模型以及所述变步长确定优化权重向量;根据所述优化权重向量确定第二目标函数;根据所述第二目标函数确定样本文本类型。采用本发明所提供的文本分类方法及系统能够在文本分类的背景下能够更为精准并快速的进行文本区分。

    一种基于非光滑函数类型的文本分类方法及系统

    公开(公告)号:CN109766443A

    公开(公告)日:2019-05-17

    申请号:CN201910023612.5

    申请日:2019-01-10

    IPC分类号: G06F16/35

    摘要: 本发明公开了一种基于非光滑函数类型的文本分类方法及系统。所述文本分类方法包括:获取样本文本的损失函数以及正则化项;根据所述损失函数以及所述正则化项构建第一目标函数;获取迭代次数,并根据所述迭代次数确定变步长;根据所述变步长构建K次迭代模型;根据所述K次迭代模型以及所述变步长确定优化权重向量;根据所述优化权重向量确定第二目标函数;根据所述第二目标函数确定样本文本类型。采用本发明所提供的文本分类方法及系统能够在文本分类的背景下能够更为精准并快速的进行文本区分。

    基于尺度敏感损失与特征融合的小目标检测方法和系统

    公开(公告)号:CN113221855A

    公开(公告)日:2021-08-06

    申请号:CN202110656942.5

    申请日:2021-06-11

    摘要: 本发明提供一种基于尺度敏感损失与特征融合的小目标检测方法和系统,检测方法包括:建立训练数据集和尺度敏感损失与特征融合的目标检测网络;所述数据集中包括多张训练图像,每张图像中设置有至少一个待检测目标;所述检测模型包括特征提取模块、特征融合模块和目标检测模块;采用所述训练数据集对所述检测模型进行训练,得到训练后的检测模型;训练过程中所采用的损失函数为包括分类损失部分、回归损失和下采样造成的目标偏移损失;将待检测图像输入所述训练后的检测模型,得到小目标检测结果。本发明所提供的技术方案,能够解决小目标检测时存在的网络结构复杂、检测速度较慢的问题。

    通用动量方法、基于通用动量方法的目标检测与识别方法

    公开(公告)号:CN111104877A

    公开(公告)日:2020-05-05

    申请号:CN201911239420.4

    申请日:2019-12-06

    IPC分类号: G06K9/00 G06K9/46 G06K9/62

    摘要: 本发明公开了一种通用动量方法、以及基于通用动量方法的目标检测与识别方法,包括:获取待检测与识别的样本图像;获取图像的目标候选区域;根据深度卷积神经网络提取目标候选区域的特征;采用通用动量方法,建立非光滑稀疏学习分类模型对提取的特征进行分类;根据分类效果,精调分类模型的参数;通过边界框回归算法重新定位目标边界框。本发明提出的通用动量方法泛化能力更强,使用个体输出的形式更有助于稀疏性地保持,并且能够自适应地调整分类模型的各项参数,对于不同类型的样本图像,均可以更好地提高R-CNN对于目标检测与识别的速度,具有更加普适的实践意义;另外,通过采用通用动量方法和精修候选框位置,提高检测与识别的速率、成功率和准确率,普遍提高R-CNN对于目标检测与识别的速度。

    通用动量方法、基于通用动量方法的目标检测与识别方法

    公开(公告)号:CN111104877B

    公开(公告)日:2023-04-07

    申请号:CN201911239420.4

    申请日:2019-12-06

    摘要: 本发明公开了一种通用动量方法、以及基于通用动量方法的目标检测与识别方法,包括:获取待检测与识别的样本图像;获取图像的目标候选区域;根据深度卷积神经网络提取目标候选区域的特征;采用通用动量方法,建立非光滑稀疏学习分类模型对提取的特征进行分类;根据分类效果,精调分类模型的参数;通过边界框回归算法重新定位目标边界框。本发明提出的通用动量方法泛化能力更强,使用个体输出的形式更有助于稀疏性地保持,并且能够自适应地调整分类模型的各项参数,对于不同类型的样本图像,均可以更好地提高R‑CNN对于目标检测与识别的速度,具有更加普适的实践意义;另外,通过采用通用动量方法和精修候选框位置,提高检测与识别的速率、成功率和准确率,普遍提高R‑CNN对于目标检测与识别的速度。

    基于深度C3D特征的视频显著性区域检测方法及系统

    公开(公告)号:CN110705431B

    公开(公告)日:2022-03-15

    申请号:CN201910916306.4

    申请日:2019-09-26

    摘要: 本发明提供一种基于深度C3D特征的视频显著性区域检测方法及系统,包括:将训练视频帧输入到深度3D ResNeXt‑101网络中,得卷积特征块;采用多尺度3D卷积核对卷积特征块处理,得第一多尺度时空特征块;采用softmax函数对第一多尺度时空特征块处理,构建注意相关加权响应图,作用于第一多尺度时空特征块,得多尺度时空三维上下文特征;采用ConvLSTM算法进行更新,或采用反卷积对其进行上采样,输入空洞卷积层,得显著图序列;采用损失函数计算损失进行反向传播,对上述网络所涉参数调整完成训练;采用训练好的深度C3D视频显著性区域检测网络对待检测视频进行显著性区域检测。本发明上述方法通过捕获视频的多尺度时空特征,以解决视频的显著性区域检测的问题。