一种使用运动信息与时序信息的改进CFNet视频目标追踪方法

    公开(公告)号:CN110580712B

    公开(公告)日:2023-04-25

    申请号:CN201910797988.1

    申请日:2019-08-27

    Applicant: 江南大学

    Abstract: 本发明提供一种使用运动信息与时序信息的改进CFNet视频目标追踪方法,属于目标追踪、深度学习领域。为了使模型有更强的鲁棒性,首先,要能够更好的提取视频帧中的图像特征,在CFNet模型的基础上,引入了SE‑ResNext‑50作为本模型的特征提取网络,其次,通过前后帧的信息,计算物体的位移、速度、加速度特征,作为跟踪目标的运动信息特征输入模型中。同时,模型还使用二维ConvLSTM循环神经网络,提取视频帧内的时序信息,两种信息的加入使得模型具有了较强的鲁棒性,在遇到遮挡,形变,目标快速运动等问题时较之前模型有较好的表现。

    一种基于多尺度特征卷积神经网络的目标定位方法

    公开(公告)号:CN110009679B

    公开(公告)日:2022-01-04

    申请号:CN201910148554.9

    申请日:2019-02-28

    Applicant: 江南大学

    Abstract: 本发明提供一种基于多尺度特征卷积神经网络的目标定位方法,属于计算机视觉领域。本方法针对实际应用中诸多数据集标签部分缺失、无定位标注等问题,提出了基于多尺度特征卷积神经网络的弱监督定位方法,其核心思想利用神经网络分层的特性,在多层卷积层上使用梯度加权类激活映射,生成梯度金字塔模型,并通过均值滤波计算特征质心位置,利用置信强度映射和阈值梯减模块产生连接的像素段,围绕最大边界标注进行弱监督定位。在标准测试集上的实验结果表明,算法能够在存在大量类别、多尺度图像的情况下完成目标定位,具有较高的精确度。

    基于MobileNet V3的实时人脸检测方法

    公开(公告)号:CN110647817A

    公开(公告)日:2020-01-03

    申请号:CN201910796856.7

    申请日:2019-08-27

    Applicant: 江南大学

    Abstract: 基于MobileNet V3的实时人脸检测方法,属于人脸识别领域。本发明设计一种基于SSD架构的实时人脸检测器。同时这是MobileNet V3卷积神经网络首次应用于实时人脸检测任务。此外,还提出了一个轻量级的特征提高模块,增强MobileNet V3中浅层特征的表示能力,提高极小型人脸的检测精度。最后,为了提高极小型人脸的召回率,使用锚点密度策略,使得不同类型的锚点在图像上具有相同的密度。SSRFD在AFW数据集上能够实现99.43%mAP,同时仅有0.62M的参数;速度方面,采用1024x1024高分辨率图片在一块NVIDIA TITANX卡上进行测试,本方法能够达到34fps的帧速率。

    一种基于改进YOLO模型的多模态行人检测方法

    公开(公告)号:CN111767882B

    公开(公告)日:2024-07-19

    申请号:CN202010639950.4

    申请日:2020-07-06

    Applicant: 江南大学

    Abstract: 本发明涉及一种基于改进YOLO模型的多模态行人检测方法,属于深度学习目标检测领域。该基于改进YOLO模型的多模态行人检测算法,使用KAIST数据集中一一对应的可见光图片和红外光图片样本进行训练,得到训练好的模型,通过训练好的模型检测可见光‑红外光图片对中是否包含行人目标,该基于YOLO网络的多模态行人检测算法使用并行Darknet53作为特征提取网络,分别提取可见光模态和红外光模态的多尺度特征图,而且使用了加权特征融合层和CBAM注意力机制,使可见光特征和红外光特征图片更好的融合,再将多尺度注意力加权融合特征图依次级联并送入YOLO层中进行行人检测。

    基于尾句-上下文双重注意力模型的多轮对话生成方法

    公开(公告)号:CN110413729B

    公开(公告)日:2023-04-07

    申请号:CN201910554079.5

    申请日:2019-06-25

    Applicant: 江南大学

    Abstract: 基于尾句‑上下文双重注意力模型的多轮对话生成方法,属于人机对话领域。一个合适的回复应该是符合最后一个句子的语义且能够利用到整个上下文的信息。当前多轮对话生成主要基于层次的编码器‑解码器结构。本发明提出了一个尾句‑上下文双重注意力模型。每句话都通过编码器获取句子的语义表示。对最后一句话中每个词做注意力,同时对每句话的语义表示做注意力。二者拼接作为解码阶段的上下文向量。此外,本发明还引入了多头自注意力机制使得在获取每句话的语义表示时能更关注于关键的词。实验证明本发明方法的模型在自动评价和人工评价两个方面都超出了基准模型。

    基于改进的量子行为粒子群优化算法的文本对抗攻击方法

    公开(公告)号:CN112765355A

    公开(公告)日:2021-05-07

    申请号:CN202110106877.9

    申请日:2021-01-27

    Applicant: 江南大学

    Abstract: 基于改进的量子行为粒子群优化算法的文本对抗攻击方法,属于自然语言处理文本对抗攻击领域。本发明对抗攻击能够极大地弱化深度神经网络在自然语言处理任务中的判别能力,研究对抗攻击方法是提升深度神经网络的鲁棒性的重要方法。现有的词级别文本对抗方法在搜索对抗样本时不够有效,搜索到的往往不是最理想的样本。针对这一缺陷,提出了基于改进的量子行为粒子群优化算法的文本对抗方法。通过对量子行为粒子群优化算法进行离散化的适应性改动,结果表明,本方法在多个数据集上取得了更高的攻击成功率,同时保持了更低的改动率,人工评测则表明所提出方法生成的对抗样本相比于其他对抗样本能够更多地保留语法和语义的正确性。

    一种使用运动信息与时序信息的改进CFNet视频目标追踪方法

    公开(公告)号:CN110580712A

    公开(公告)日:2019-12-17

    申请号:CN201910797988.1

    申请日:2019-08-27

    Applicant: 江南大学

    Abstract: 本发明提供一种使用运动信息与时序信息的改进CFNet视频目标追踪方法,属于目标追踪、深度学习领域。为了使模型有更强的鲁棒性,首先,要能够更好的提取视频帧中的图像特征,在CFNet模型的基础上,引入了SE-ResNext-50作为本模型的特征提取网络,其次,通过前后帧的信息,计算物体的位移、速度、加速度特征,作为跟踪目标的运动信息特征输入模型中。同时,模型还使用二维ConvLSTM循环神经网络,提取视频帧内的时序信息,两种信息的加入使得模型具有了较强的鲁棒性,在遇到遮挡,形变,目标快速运动等问题时较之前模型有较好的表现。

    基于改进的量子行为粒子群优化算法的文本对抗攻击方法

    公开(公告)号:CN112765355B

    公开(公告)日:2024-08-27

    申请号:CN202110106877.9

    申请日:2021-01-27

    Applicant: 江南大学

    Abstract: 基于改进的量子行为粒子群优化算法的文本对抗攻击方法,属于自然语言处理文本对抗攻击领域。本发明对抗攻击能够极大地弱化深度神经网络在自然语言处理任务中的判别能力,研究对抗攻击方法是提升深度神经网络的鲁棒性的重要方法。现有的词级别文本对抗方法在搜索对抗样本时不够有效,搜索到的往往不是最理想的样本。针对这一缺陷,提出了基于改进的量子行为粒子群优化算法的文本对抗方法。通过对量子行为粒子群优化算法进行离散化的适应性改动,结果表明,本方法在多个数据集上取得了更高的攻击成功率,同时保持了更低的改动率,人工评测则表明所提出方法生成的对抗样本相比于其他对抗样本能够更多地保留语法和语义的正确性。

Patent Agency Ranking