-
公开(公告)号:CN118398154B
公开(公告)日:2024-09-10
申请号:CN202410804636.5
申请日:2024-06-21
申请人: 安徽大学
摘要: 本发明提供一种词语索引模型和医学报告的生成方法、系统、设备和介质。模型生成方法包括:获取医学影像集和对应的医学报告集,以及文本索引表和医学术语集;对医学报告集和医学术语集索引化处理,得到医学报告索引集和医学术语索引集;输入医学影像集至特征提取网络提取医学影像特征;将医学术语索引集和初始文本输入词嵌入网络获取文本特征和医学术语特征;将文本特征和医学术语特征、医学影像特征和医学术语特征输入融合网络得到对齐融合特征;输入对齐融合特征至预测网络得到预测文本序列集合;根据预测文本序列集合与索引化后的医学报告的差异度,更新模型参数,得到训练好的词语索引模型。提升了医学报告的准确度。
-
公开(公告)号:CN114626989B
公开(公告)日:2024-07-02
申请号:CN202210324405.5
申请日:2022-03-30
IPC分类号: G06T3/4076 , G06T5/50 , G06T5/60 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/0499 , G06N3/084 , G06N3/0455 , G06N3/0475 , G06N3/094 , G06N3/09
摘要: 本发明提供一种基于域对抗转换的盲图像超分辨方法,包括:输入一张具有未知退化信息的低分辨率图像,使用退化图像编码器提取输入图像信息,为了避免退化信息估计存在的缺陷,引入域转换模块实现从退化数据域到干净数据域的转换,同时尽可能保留输入图像的自身信息。此外,由于域转换过程中不可避免损坏图像本身信息,为了恢复域转换过程中损失的图像信息,我们引入特征增强模块根据输入特征恢复部分细节信息,同时为了充分利用图像自身的信息,我们在特征上采用模块中设计了多尺度残差结构从不同感受野提取信息并使用选择性核方式融合多尺度特征。
-
公开(公告)号:CN118015045A
公开(公告)日:2024-05-10
申请号:CN202410153260.6
申请日:2024-02-02
申请人: 安徽大学
IPC分类号: G06T7/246 , G06V10/44 , G06V10/62 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/0455
摘要: 本发明公开了基于运动信息辅助的遥感单目标跟踪方法及系统,方法包括:构建带有挖掘目标长期运动特征的长时运动信息挖掘模块的目标跟踪模型;训练所述目标跟踪模型;测试训练好的目标跟踪模型,实时获取目标跟踪结果;根据当前目标跟踪结果,判断目标是否遮挡和丢失,若是,则估计目标下一帧的位置,输出目标下一帧的位置,若否,则直接输出当前目标跟踪结果;本发明的优点在于:不容易丢失跟踪对象,鲁棒性强,具有全局表示能力。
-
公开(公告)号:CN117496280B
公开(公告)日:2024-04-02
申请号:CN202410004772.6
申请日:2024-01-03
申请人: 安徽大学 , 安徽中医药大学第一附属医院
IPC分类号: G06V10/764 , G06N3/045 , G06N3/0464 , G06V10/44 , G06V10/82
摘要: 本发明涉及提供一种基于3D卷积和多标签解码的颅脑CT影像质量控制方法。方法包括:获取待评价的颅脑CT序列图像;将待评价的颅脑CT序列图像输入至训练好的图像质量评价模型的3D卷积网络,提取待评价的颅脑CT序列图像的时空特征;将时空特征输入至图像质量评价模型基于Transformer的多标签解码器,获取查询特征;将查询特征输入至图像质量评价模型的线性分类器,预测待评价的颅脑CT序列图像存在的质量问题。本发明解决了模型效率低、数据不平衡的多标签分类问题,为颅脑CT图像的质量控制提供了新方向。
-
公开(公告)号:CN117711421A
公开(公告)日:2024-03-15
申请号:CN202311339818.1
申请日:2023-10-17
申请人: 安徽大学
IPC分类号: G10L21/0272 , G10L17/04 , G10L25/18 , G10L25/27
摘要: 本发明公开一种基于协调简单注意力机制的两阶段语音分离方法,获取说话者的视频数据集以及对应音频数据集,构造混合音频以及音频频谱图;构建基于协调简单注意力机制的两阶段语音分离模型;两阶段语音分离模型语音分离的推理过程中,先将预测的掩模与输入的频谱图相乘来预测语音频谱图,然后使用逆短时傅里叶反变换将其转换为最终分离的语音信号。本发明第一阶段先粗分离,第二阶段精细分离来去除第一阶段分离后音频存在其他音频噪声问题;针对分离后的音频存在部分音频片段缺失问题,本发明使用恢复融合模块来恢复缺失的音频片段;本发明提出协调简单注意力机制可以使音频和对应视觉信息更好地相关关联,以实现更精确的分离结果。
-
公开(公告)号:CN114663470B
公开(公告)日:2024-03-15
申请号:CN202210094864.9
申请日:2022-01-26
申请人: 安徽大学
IPC分类号: G06T7/246 , G06T7/11 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/08
摘要: 本发明公开了一种软选择的自适应跨模态视觉跟踪方法,属于计算机视觉技术领域,方法包括:从跨模态跟踪数据集中随机抽取一个测试序列;将测试序列作为跟踪网络的输入,对测试序列中目标进行跟踪;跟踪网络包括特征提取网络、软性选择模块、模型预测器和IoU网络,特征提取网络的输入为测试序列、输出与软性选择模块连接,软性模块的输出分别与模型预测器和IoU网络连接,软性选择模块用于自适应预测各模态对应的重要性权重并将权重与各模态对应特征图加权融合得到各模态的融合特征图。本发明通过设置软性选择模块来自适应预测各模态对应的重要性权重解决现有技术中跨模态跟踪中不同模态切换导致跟踪器性能下降的问题。
-
公开(公告)号:CN117671582A
公开(公告)日:2024-03-08
申请号:CN202311542794.X
申请日:2023-11-15
申请人: 安徽大学
IPC分类号: G06V20/52 , G06V10/774 , G06V10/764 , G06V10/80 , G06V10/74 , G06V10/52
摘要: 本发明公开了一种多尺度跨平台行人重识别方法,包括:获取行人图片数据集,将行人图片数据集划分为训练集和测试集;采用ColorJitter函数,数据增强行人图片数据集中图像;建立初始跨平台行人重识别网络,将训练集中的图片分批输入初始跨平台行人重识别网络中,输出分类结果;通过总损失函数计算分类结果的损失,并利用梯度下降算法更新,以及通过反向传播优化初始跨平台行人重识别网络,获取优化跨平台行人重识别网络;将测试集输入至优化跨平台行人重识别网络中,获取识别精度;判断识别精度,若识别精度不满足要求,则重复训练过程,直至满足精度要求。通过本发明公开的多尺度跨平台行人重识别方法,能够用于不同平台的行人重识别。
-
公开(公告)号:CN113658227B
公开(公告)日:2024-02-20
申请号:CN202110987298.X
申请日:2021-08-26
申请人: 安徽大学
IPC分类号: G06T7/246 , G06V10/764 , G06V10/74 , G06V10/56 , G06V10/62
摘要: 一种基于协同低秩图模型的RGBT目标跟踪方法及系统,属于计算机视觉技术领域,解决现有技术的基于图模型的目标跟踪算法中相似性求解存在的可靠性低以及跟踪结果噪声高的问题;本发明的技术方案基于协同异质图模型的RGBT目标跟踪算法学习可靠的目标特征表示,改进基于图学习的方法中求解相似性矩阵的计算方式,学习到更可靠的相似性值,并且采用特征分解模型对原始输入特征进行分解,抑制噪声对跟踪结果的影响,同时对不同模态之间的异质性和协同性进行建模,有效利用不同模态的特征。
-
公开(公告)号:CN117523609A
公开(公告)日:2024-02-06
申请号:CN202311519273.2
申请日:2023-11-15
申请人: 安徽大学
IPC分类号: G06V40/10 , G06V10/44 , G06V10/764 , G06V10/74 , G06V10/86 , G06V10/82 , G06N3/0464
摘要: 本发明公开一种基于特定和共享表示学习的可见光与近红外行人重识别方法,设计一个共享分支来弥合图像级别的域差异并学习模态共享表征,同时设计了一个特定分支来保留可见光图像的判别信息以学习模态特定表征。此外,还提出了类内聚合和类间分离学习策略,以在细粒度水平上优化特征嵌入的分布,进一步提高发明方法的泛化性能,本发明能够在消除颜色差异的同时,保留可见光图像中包含的颜色特定信息。
-
公开(公告)号:CN117496459A
公开(公告)日:2024-02-02
申请号:CN202311512570.4
申请日:2023-11-10
申请人: 安徽大学
IPC分类号: G06V20/54 , G06V20/40 , G06V10/44 , G06V10/62 , G06V10/764 , G06V20/17 , G06V10/26 , G06V10/25
摘要: 本发明提供基于CRNet的无人机视频车辆检测方法及系统,方法包括:采集得到差异场景视频数据,据以构建无人机视频时序序列;对差异场景视频数据,进行类别标注操作,以得到车辆类别标注数据;基于CRNet,将无人机视频时序序列作为模型输入数据,设置模型骨干网络时序增强模块,据以构建车辆检测识别模型;根据车辆检测识别模型,求取box损失、角度损失,以求取回归损失及分类损失,据以处理得到整体损失。本发明解决了难以排除运动模糊、随机遮挡以及密集分布的不利影响,以及对细粒度目标分类能力差的技术问题。
-
-
-
-
-
-
-
-
-