一种基于目标追踪的视频计算云边协同任务调度方法

    公开(公告)号:CN114172809B

    公开(公告)日:2023-10-03

    申请号:CN202111518213.X

    申请日:2021-12-13

    发明人: 吴渝 程城 王利

    摘要: 本发明公开一种基于目标追踪的视频计算云边协同任务调度方法,包括如下步骤:对应用场景进行建模,构建以目标追踪为目的的云边协同框架,且云边协同框架包括终端、边缘计算端和云计算端;通过终端采集视频信息,形成视频数据流,并将视频数据流通过通信网络发送到边缘计算端;根据云边协同框架及目标追踪的背景,构建通信模型;边缘计算端对终端的视频数据进行处理,计算任务时延,并根据时延来确定将任务视频数据发送到云计算端或/和边缘计算端进行处理;获取最优卸载策略。本发明构建云计算和边缘计算结合的数据和信息处理方法,并具体应用于视频的目标跟踪,相对现有技术效率和准确性都大大提高,计算能力更高,更加实用。

    一种基于平均影响力的网络空间群体性事件预警系统

    公开(公告)号:CN110083701B

    公开(公告)日:2023-07-21

    申请号:CN201910212323.X

    申请日:2019-03-20

    摘要: 本发明请求保护一种基于平均影响力的网络空间群体性事件预警系统,其中系统包括采集模块,预处理模块,识别模块,预警模块。本发明通过网络爬虫对网页信息进行多策略爬取,再对爬取的数据进行标准化处理。利用识别模块对标准化的数据进行识别,并将结果输入到预警模块。预警模块根据预先设定的预警指标阈值实现预警并输出可视化报告。本系统通过分析网络空间群体性事件参与者的内部组成,有效解决现有预警指标体系的仅关注事件本身而忽略了参与者组成对识别率的影响。

    一种基于生成对抗网络的遥感图像融合方法、系统和终端

    公开(公告)号:CN110211046B

    公开(公告)日:2023-07-14

    申请号:CN201910509396.5

    申请日:2019-06-12

    IPC分类号: G06T3/40 G06T5/50

    摘要: 本发明公开了一种基于生成对抗网络的遥感图像融合方法,包括:采用差分算子提取原始全色图像的空间结构信息,采样原始的多光谱图像;将空间结构信息与采样的多光谱图像在特征域拼接,得样本图像;将样本图像输入生成对抗网络的生成器,生成融合图像;将融合图像和真实图像输入生成对抗网络的判别器进行判别区分,在生成器与判别器间建立对抗规则及融合目标函数,优化融合图像。采用本发明所公开的基于生成对抗网络的遥感图像融合方法,采用差分算子保留了原始全色图像的空间结构信息,采样方法保留了原始低分辨率多光谱图像的光谱信息,有效减少了融合过程中细节信息的丢失;此外,通过在生成器和判别器间建立对抗规则及融合目标函数,大大优化了融合的效果。

    一种基于深度信息的障碍物检测系统及方法

    公开(公告)号:CN110070570B

    公开(公告)日:2023-05-26

    申请号:CN201910212341.8

    申请日:2019-03-20

    IPC分类号: G06T7/50 G06T7/00

    摘要: 本发明请求保护一种基于深度信息的障碍物检测系统及方法,主要涉及计算机视觉领域。所述方法包括以下步骤:首先通过深度摄像头采集环境的图像信息,并通过该设备获取环境及其中物体的点云信息;然后对采集到的深度点云信息进行滤波,去除图像中的噪声点和无用点,对采集到的深度图进行平面拟合;依据深度图和平面拟合结果,确定障碍物的初步点云集合;提取点云信息的特征点,并计算特征点的描述符;对场景和目标物体的描述符进行特征匹配,得到场景中障碍物检测结果。该方法不受环境变化的影响,并依据传感器特性加入色彩元素进行检测,提高了障碍物检测的准确率。

    一种基于特征融合和多核学习的行人再识别方法

    公开(公告)号:CN112766180B

    公开(公告)日:2022-07-12

    申请号:CN202110087196.2

    申请日:2021-01-22

    IPC分类号: G06V40/10 G06V10/80 G06K9/62

    摘要: 本发明涉及行人再识别领域,具体涉及一种基于特征融合和多核学习的行人再识别方法;所述方法包括获取行人图像并预处理;提取出行人图像的底层特征和中层语义特征,采用特征权重组合方法进行特征融合;采用不同核函数对融合特征分别进行映射;利用中心对齐方法为每个核函数赋予权重进行线性组合后进行复合映射;采用多元逻辑回归算法对复合映射后的融合特征进行处理,计算出行人图像之间的相似度,利用相似度大小降序排列,得到行人分类值即行人再识别结果;本发明所采用的融合特征更具有鲁棒性,能够更为真实的反应行人的特征;本发明加入了多核学习方法,将融合特征映射到高维空间,使得特征可以更好的表达,以此增强行人再识别问题的分类效果。

    一种图像语义细粒度的描述生成方法

    公开(公告)号:CN112528989A

    公开(公告)日:2021-03-19

    申请号:CN202011387365.6

    申请日:2020-12-01

    发明人: 李红波 汤跃 吴渝

    摘要: 本发明请求保护一种图像语义细粒度的描述生成方法,属于计算机视觉和自然语言处理相融合的领域,解决了现有技术生成的图像语义描述粗糙不够精细的问题。该方法包括以下步骤:选取数据集和语料库,并对数据预处理;引入注意力机制的网络提取感兴趣区域特征,并根据感兴趣区域特征得到语义补充区域特征;将感兴趣区域特征输入到第一个长短时记忆网络,生成粗糙的图像语义描述;将已生成的图像语义描述输入到第二个长短时记忆网络,并根据语义补充区域特征对图像语义描述进行细化更新,获得图像语义细粒度的描述内容。该方法不仅提高了图像语义描述的精确度,还提高了图像语义描述的细粒度。

    一种弹幕文本中情感词的分类方法、装置及存储介质

    公开(公告)号:CN112507115A

    公开(公告)日:2021-03-16

    申请号:CN202011418248.1

    申请日:2020-12-07

    摘要: 本发明公开了一种弹幕文本中情感词的分类方法及装置,包括以下步骤:对Python爬取到的弹幕数据进行预处理,判断待分类弹幕数据中是否包含情感词,若不包含则直接利用GRU分类器进行分类得到分类结果;若包含情感词,则构造弹幕文本领域的多维弹幕情感词典,并在所述多维弹幕情感词典基础上,构造文本情感计算分类器;采用模型融合的集成学习策略构造弹幕情感分类模型;将测试集数据输入到弹幕情感分类模型中,得到弹幕的情感分类结果。本发明扩展了情感词典,利用GRU、朴素贝叶斯和七维情感计算分类方法作为基分类器,根据各个基分类器得到的结果进行投票融合输出最终情感分类结果,解决弹幕短文本情感词分类问题。

    一种基于深度摄像头的空中手写识别系统及方法

    公开(公告)号:CN111950514A

    公开(公告)日:2020-11-17

    申请号:CN202010870135.9

    申请日:2020-08-26

    发明人: 李红波 黄涛 吴渝

    摘要: 本发明请求保护一种基于深度摄像头的空中手写识别系统及方法,所述方法包括以下步骤:首先通过深度摄像头获取深度图像;然后利用深度阈值分割方法得到手势图像;通过与特定静态手势相匹配,判定书写开始和结束;然后基于手部轮廓特征完成检测指尖;书写结束后,计算相邻指尖坐标欧式距离,剔除首尾静止点并进行插值操作,选取定量坐标点并连接得到轨迹;再对轨迹进行重映射并提取特征,采用SVM进行识别,最终输出字符。本发明降低复杂环境和光照干扰,并大大减少冗余信息和算法的计算开销,提高了空中手写识别的准确性和实时性。

    一种基于多任务学习模型的AI换脸视频检测方法

    公开(公告)号:CN111950497A

    公开(公告)日:2020-11-17

    申请号:CN202010844086.1

    申请日:2020-08-20

    摘要: 本发明请求保护一种基于多任务学习模型的AI换脸视频检测方法,属于计算机视觉与深度学习领域,包括以下步骤:预先训练基于多任务学习的模型来检测被修改的换脸视频,并为每个查询定位修改的区域,此模型为自动编码器包括一个Y型自动解码器。利用半监督学习方法来提高网络的生成性,利用多任务之前共享有价值的信息,减少激活损失函数、分割损失函数和重建损失函数的总和,并使用优化器进行优化,进而提高性能。对于视频输入检测,对所有帧的概率进行求平均,得出输入为真或假的概率。本发明有利提高AI换脸视频检测。