-
公开(公告)号:CN118941914A
公开(公告)日:2024-11-12
申请号:CN202410861508.4
申请日:2024-06-28
申请人: 安徽大学
IPC分类号: G06V10/82 , G06V10/20 , G06V10/40 , G06V10/766 , G06V10/25 , G06V10/764 , G06N3/0464 , G06N3/084 , G06N3/09
摘要: 本发明提供结构信息引导的SAR目标细粒度识别方法及系统,方法包括:采用了YOLOv5的策略进行数据预处理;将预处理后的数据送入DCN和注意力模块中,对图像中的关键特征进行引导增强;特征送入检测头,生成最终的识别结果;采用Focaler‑SloU进行网络训练。本发明解决了鲁棒性和泛化性较弱、虚警率高、漏检错检以及目标具体型号难以进行准确的细粒度分类的技术问题。
-
公开(公告)号:CN118781639A
公开(公告)日:2024-10-15
申请号:CN202410908944.2
申请日:2024-07-08
申请人: 安徽大学
IPC分类号: G06V40/16 , G06V10/40 , G06V10/80 , G06V10/82 , G06V10/764 , G06N3/045 , G06N3/094 , G06N3/0985 , G06N3/0464
摘要: 一种基于原型传输的昼夜跨域面部表情识别方法,属于人机交互技术领域,解决如何利用丰富的日间可见光情绪图片学习情绪知识以迁移到夜晚暗光条件下的各种情绪识别中,从而提高暗光条件下的情绪识别的问题,本发明提出专注于面部情绪的注意力转换多特征捕获模块,捕获更多可转移的局部情绪特征,提出了原型特征转移模块来学习与模态无关的类别特征,以缩小可见光和红外特征之间的域差距;提出高置信度的混合模块来选择信息丰富的可见光和红外样本进行融合,从而产生融合特征,其中包含关于两个领域的风格信息;本发明在提高夜间情感识别准确率方面有效,并且适用于大多数夜间场景。
-
公开(公告)号:CN118469022A
公开(公告)日:2024-08-09
申请号:CN202410919970.5
申请日:2024-07-10
申请人: 安徽大学
IPC分类号: G06N5/04 , G06N3/0455 , G06N3/0499 , G06F18/25 , G06V10/40 , G06V10/56 , G06V10/58 , G06F40/30 , G06V10/80 , G06V10/82 , G06N3/048
摘要: 本发明公开了基于文本信息引导的多源遥感视觉问答方法及系统,方法包括:获得RGB特征、SAR特征以及原始文本特征;原始文本特征和RGB特征输入第一特征增强模型得到RGB增强特征,原始文本特征和SAR特征输入第二特征增强模型得到SAR增强特征;RGB增强特征、SAR增强特征以及原始文本特征均输入QGF模型得到图像融合特征;图像融合特征以及原始文本特征输入第一解码器得到融合文本特征的图像特征,将原始文本特征以及图像融合特征输入第二解码器得到融合图像特征的文本特征,经处理得到最终预测的遥感视觉问答任务答案;本发明的优点在于:提高遥感视觉问答任务回答的准确性。
-
公开(公告)号:CN117974598A
公开(公告)日:2024-05-03
申请号:CN202410135690.5
申请日:2024-01-31
申请人: 安徽大学
摘要: 本发明公开一种基于多视角PET图像的分组自注意力图卷积早期脑疾病预测方法,从PET扫描的轴向视图、冠状视图和矢状视图中学习表征,然后结合起来共同决策。以轴向视图为例,首先利用骨干网络提取脑PET图像特征,并将其按通道分为四组。针对每一组特征,构建一个k邻域空间图,并应用图卷积方法,旨在学习每个位置的空间上下文感知特征表示,充分利用图像中的空间信息。随后,利用自注意力模块促进特征之间的信息交互,并将每一组得到的特征连接在一起。最后,再将不同视图的特征连接起来,通过多层感知器对特征进行分类,使用加权二元交叉熵损失函数,并通过多次迭代训练获得最终的分类结果。
-
公开(公告)号:CN117708355A
公开(公告)日:2024-03-15
申请号:CN202311699903.9
申请日:2023-12-11
申请人: 安徽大学
IPC分类号: G06F16/532 , G06F16/583 , G06V20/54 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464
摘要: 一种多图像查询车辆重识别方法、设备及存储介质,属于车辆重识别技术领域,解决如何提高多张车辆图像检索的效果的问题,本发明利用了Transformer擅长捕获长距离依赖关系和不同特征提取阶段关注范围的逐渐增加的特点,提取了多张车车辆图像的融合特征;此外,为了提高每个视角的全局特征提取能力通过设计提出多分支视角独有特征提取模块,每个分支仅仅提取某一视角车辆图像的特征,使得分支网络能够更加擅长捕获在某一视角的车辆全局特征,在最终的距离度量阶段,引入了独有视角全局特征辅助距离计算,来提高网络识别的性能,提高了多图像查询车辆重识别效果,保证了模型的鲁棒性。
-
公开(公告)号:CN117393100A
公开(公告)日:2024-01-12
申请号:CN202311688317.4
申请日:2023-12-11
申请人: 安徽大学
摘要: 本发明提供一种诊断报告的生成方法、模型训练方法、系统、设备及介质。训练方法包括:获取含病变标签和诊断报告的第一类医学影像图片、含病变标签标注的第二类医学影像图片、不含病变标签标注的第三类医学影像图片;根据学生模型生成三类医学影像图片对应的第一预测诊断报告、第二预测诊断报告和第三预测诊断报告;根据教师模型生成第三类医学影像图片的第四预测诊断报告;根据文本分类模型生成第一预测诊断报告和第二预测诊断报告的预测病变标签;基于预测病变标签和病变标签、第二预测诊断报告和诊断报告、第三预测诊断报告的第四预测诊断报告,更新学生模型和教师模型的参数,将训练好的学生模型作为诊断报告生成模型。提高了模型的准确率。
-
公开(公告)号:CN117392584A
公开(公告)日:2024-01-12
申请号:CN202311355865.5
申请日:2023-10-19
申请人: 安徽大学
IPC分类号: G06V20/40 , G06V10/77 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/084
摘要: 本发明公开一种基于非对称早期融合和时序模态差分的可见光‑热红外视频目标检测方法,为保持中间融合的多分支结构,本发明设计一种不对称的早期融合策略,该策略确保网络的每个分支都积极减少模态差异;同时为减少噪声的影响并增强泛化能力,本发明还设计一个基于时序模态差异的中间融合模块,通过时序差异负责有效地建模时间信息,而模态差异使网络减少对噪声区域的关注。本发明在现有的可见光‑热红外视频目标检测数据集上取得了较好的效果。
-
公开(公告)号:CN116523956A
公开(公告)日:2023-08-01
申请号:CN202310197389.2
申请日:2023-02-28
申请人: 安徽大学
IPC分类号: G06T7/246 , G06N3/08 , G06N3/0464
摘要: 本发明提供基于渐进式融合Transformer与动态指导学习的RGBT跟踪方法及系统,方法包括:训练过程和测试过程,训练过程包括:数据采样和预处理;特征提取;跨分支特征融合;模板帧和搜索帧特征信息交互;搜索帧特征送入分类器并计算分类损失;适用协同学习算法进行训练优化,测试过程包括:数据采样和预处理;特征提取;跨分支特征融合;模板帧和当前帧特征信息交互;当前帧特征送入分类器和回归器;预测当前帧目标的包围框。本发明解决了不同模态丢失异构信息、融合特征与特定模态特征之间的关系在学习判别多模态表示时却被忽略、缺乏全局表示能力的技术问题。
-
公开(公告)号:CN113298094B
公开(公告)日:2022-11-04
申请号:CN202110645432.8
申请日:2021-06-10
申请人: 安徽大学
摘要: 本发明公开一种基于模态关联与双感知解码器的RGB‑T的显著性目标检测方法,本发明通过模态对齐模块(MAM)来建模两种模态的强关联性,其空间仿射变换,特征仿射变换和一个动态卷积层来实现特征对齐和建立更灵活的模态关联性;本发明的双重解码器结合自底向上和自顶向下的方式,学习由精到粗和由粗到精的两种感知过程,从而获得更强大的信息选择与融合的能力;进一步通过将MAM中的前两个组件和全局上下文增强部分添加到ConvLSTM中,本发明的显著图比其他先进的方法具有更高的置信度。
-
公开(公告)号:CN115223174A
公开(公告)日:2022-10-21
申请号:CN202210846214.5
申请日:2022-07-19
申请人: 讯飞智元信息科技有限公司 , 安徽大学
摘要: 本发明提供了一种喷涂车牌图像生成方法及相关方法和设备,其中,喷涂车牌图像生成方法包括:获取车牌内容模板图像和喷涂车牌背景图像;对车牌内容模板图像提取车牌内容特征,并对喷涂车牌背景图像提取喷涂车牌背景特征;基于车牌内容特征和喷涂车牌背景特征,生成喷涂车牌图像。本发明提供的喷涂车牌图像生成方法可基于车牌内容模板和喷涂车牌背景自动生成喷涂车牌,相比于从实际场景中收集喷涂车牌,本发明提供的喷涂车牌图像生成方法能够大大降低人力负担和资源消耗。
-
-
-
-
-
-
-
-
-