-
公开(公告)号:CN118372820B
公开(公告)日:2025-02-25
申请号:CN202410475399.2
申请日:2024-04-19
Applicant: 重庆大学
IPC: B60W30/095 , G06F18/2415 , G06F18/25 , G06T7/292 , G06V20/58 , G06T7/277 , B60W50/14 , B60W50/00
Abstract: 本发明涉及汽车监控系统领域,具体涉及基于机器视觉的汽车防碰撞预警方法、系统、装置及介质,包括:采用多个高精度摄像头获取车辆周围环境图像;基于所述环境图像预估车辆周围移动对象的估计位置;通过测距雷达对移动对象的估计位置进行修正,得到修正位置;基于连续视频帧提取的修正位置预测移动对象的移动轨迹;基于未来移动轨迹与车辆轨迹判断碰撞概率;根据碰撞概率通过至少一种预警渠道向驾驶员发出预警信号。从而有助于提高行车安全性,降低交通事故的发生率。
-
公开(公告)号:CN118781606A
公开(公告)日:2024-10-15
申请号:CN202410835540.5
申请日:2024-06-26
Applicant: 重庆大学
IPC: G06V30/148 , G06V30/146 , G06V30/18 , G06V30/19 , G06V10/82 , G06N3/045 , G06N3/096 , G06N3/0895 , G06N3/09
Abstract: 本发明涉及一种基于提示分割任务的混合监督文本检测方法,包括S1构建包括图像编码器,提示编码器和掩码解码器的混合监督文本检测模型TextSAM,TextSAM采用混合监督的训练模式,其训练数据集包含部分全监督数据集合#imgabs0#和部分弱监督数据集合#imgabs1#当#imgabs2#时,即进行全监督训练;当#imgabs3#时,即进行弱监督训练。将一张图像输入训练好的TextSAM,输出即是对该图像的预测标签。经过实验证明混合监督训练模式下,仅使用25%的全监督数据和75%的弱监督数据,TextSAM就能取得接近100%全监督数据时的性能,从而减少对标注数据的依赖。
-
公开(公告)号:CN118553008A
公开(公告)日:2024-08-27
申请号:CN202410497668.5
申请日:2024-04-24
Applicant: 重庆大学
Abstract: 本发明涉及视觉分析技术领域,具体涉及一种基于视觉分析的员工行为识别方法、系统、设备及介质,其中,基于视觉分析的员工行为识别方法包括获取银行监控视频图像基于卷积神经网络模型识别目标员工和客户、目标员工位置、客户位置、人工业务办理柜台区域、自助业务办理机区域和自助取号机区域;获取目标员工的面部图像基于员工数据库得到目标员工信息,目标员工信息包括目标员工姓名和联系方式;根据目标员工位置、客户位置、业务办理区域比较,基于联系方式输出预警提示信息。通过视觉技术自动识别员工、工位和客户,并根据三者之间的对比分析结果,输出对应的预警方式给员工,提醒员工提高服务质量,效率高效,银行服务的智能化水平高。
-
公开(公告)号:CN116721279A
公开(公告)日:2023-09-08
申请号:CN202310539501.6
申请日:2023-05-15
Applicant: 重庆大学
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06V10/74 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种基于标签嵌入的多标签少样本图像分类方法,该方法通过类似化学过程中的精馏操作,针对多标签少样本类视觉特征到标签的映射问题进行处理。该方法使用原型生成模块来根据词嵌入生成类语义原型,并将其投影到视觉‑语义联合特征空间中。在联合特征空间中,通过特征精馏模块中的自注意力机制和梯度回流机制,完成视觉‑语义聚合特征精馏,并对词嵌入提供的标签关系进行建模,优化生成的语义原型的判别性和对视觉特征的引导能力,从而有效利用标签嵌入作为多标签少样本图像分类任务中的信息补充。通过试验表明,该方法具有良好的分类性能和对于不可见类的泛化能力,能够处理多标签少样本图像分类任务中的类特征与标签之间的映射和多标签关系建模两大难题。
-
公开(公告)号:CN113591731B
公开(公告)日:2023-09-05
申请号:CN202110887042.1
申请日:2021-08-03
Applicant: 重庆大学
IPC: G06V20/40 , G06V10/764 , G06V10/774
Abstract: 本发明公开了一种基于知识蒸馏的弱监督视频时序行为定位方法。包括具体步骤如下:构建分类器模型,选定一个行为类别的已剪切视频,对该视频进行视频特征提取和嵌入特征计算;利用嵌入特征计算Pcls和W0,之后计算出Pscore;通过Pscore计算交叉熵损失来更新分类器模型中各个模块的相关参数。构建教师学生网络模型,选择一个该行为类别的未剪切视频,通过特征提取模块提取特征,通过嵌入特征模块计算该未剪切视频的嵌入特征,然后将该嵌入特征通过背景干扰抑制模块和特征对齐模块处理后得到其增强特征;将增强特征通过非极大值抑制法计算出最终的定位结果。通过本方法可以降低背景信息带来的干扰和提高行为信息表达的完整性,使最终的定位结果更加准确。
-
-
公开(公告)号:CN113591731A
公开(公告)日:2021-11-02
申请号:CN202110887042.1
申请日:2021-08-03
Applicant: 重庆大学
Abstract: 本发明公开了一种基于知识蒸馏的弱监督视频时序行为定位方法。包括具体步骤如下:构建分类器模型,选定一个行为类别的已剪切视频,对该视频进行视频特征提取和嵌入特征计算;利用嵌入特征计算Pcls和W0,之后计算出Pscore;通过Pscore计算交叉熵损失来更新分类器模型中各个模块的相关参数。构建教师学生网络模型,选择一个该行为类别的未剪切视频,通过特征提取模块提取特征,通过嵌入特征模块计算该未剪切视频的嵌入特征,然后将该嵌入特征通过背景干扰抑制模块和特征对齐模块处理后得到其增强特征;将增强特征通过非极大值抑制法计算出最终的定位结果。通过本方法可以降低背景信息带来的干扰和提高行为信息表达的完整性,使最终的定位结果更加准确。
-
公开(公告)号:CN110852273A
公开(公告)日:2020-02-28
申请号:CN201911099446.3
申请日:2019-11-12
Applicant: 重庆大学
Abstract: 本发明公开了一种基于强化学习注意力机制的行为识别方法,该基于强化学习注意力机制的行为识别方法包括以下步骤:S1:将构建的TSN卷积神经网络模型进行预训练,并通过所述TSN卷积神经网络模型从预先配置好的数据集中提取特征通道集;S2:将构建的深度强化学习网络模型进行预训练,并通过所述深度强化学习网络模型对所述特征通道集进行关键通道集的选择;S3:将构建的判别器神经网络模型进行预训练,并通过所述判别器神经网络模型对所述关键通道集进行动作分类。有益效果:本发明使用深度强化学习的方法获得一个能够主动关注到关键特征通道的注意力机制,并通过该深度强化学习方法可以达到提高视频识别精度的效果。
-
公开(公告)号:CN106096635B
公开(公告)日:2019-11-15
申请号:CN201610392772.3
申请日:2016-06-06
Applicant: 重庆大学
Abstract: 本发明涉及基于阈值操作的代价敏感神经网络的警告分类方法,包括S1使用FindBugs工具对目标软件一系列版本的jar文件进行分析,得到目标软件的静态警告;S2对S1获得的静态警告进行标注;S3采用代价敏感的BP神经网络,使用样本集中的样本训练分类器,采用该分类器对样本集中的所有样本进行分类,计算得到用于预测有效警告或误报警告的真实类别概率值,采用阈值操作的方式对真实类别概率值进行调整得到新类别概率值,使用该新类别概率值对样本集中的所有样本进行预测分类。本发明方法在有效警告查全率Recall方面平均提高了44.07%,还能快速达到较高而平稳的查全率,同时较传统神经网络方法能达到更低的分类代价。
-
公开(公告)号:CN110109835A
公开(公告)日:2019-08-09
申请号:CN201910368699.X
申请日:2019-05-05
Applicant: 重庆大学
Abstract: 本申请公开了一种基于深度神经网络的软件缺陷定位方法(DMF-BL),该方法主要从缺陷报告和代码文件等文本数据中提取了文本相似度、结构信息相似度、基于协同过滤算法的缺陷报告相似度、基于缺陷修复历史的相似度和类名相似度五个特征,并利用深度神经网络来整合这些特征,从而捕获特征之间的非线性关系。同时,该方法在六个项目中的23000个缺陷报告上评估了软件缺陷定位的能力,结果表明,不管是Top 1、5和10中成功定位缺陷的准确率还是平均精度均值(MAP),DMF-BL的性能都要优于目前的缺陷定位技术。
-
-
-
-
-
-
-
-
-