-
公开(公告)号:CN118678080A
公开(公告)日:2024-09-20
申请号:CN202310247533.9
申请日:2023-03-15
申请人: 四川大学
IPC分类号: H04N19/139 , H04N19/132 , H04N19/31 , H04N19/33 , H04N19/149
摘要: 本发明提出了一种结合空时域上下采样的HEVC视频质量增强框架,所提框架编码前,构建空、时域分辨率下转换模块,将输入的原始视频序列的分辨率和帧率下降为原先的一半;经由基于HEVC标准的HM16.9编码器进行编码,得到码流信息;解码后依靠提出的空域分辨率上转换模块CSVR和空时域分辨率上转换模块STRIB恢复原始的分辨率和帧率,并使用MV信息提升网络性能。实验结果表明,所提算法框架能够显著地提升压缩视频质量。本发明可广泛应用于数字电影拍摄传输、文体活动直播、远程教育培训和目标检测等领域。
-
公开(公告)号:CN118233661A
公开(公告)日:2024-06-21
申请号:CN202211638588.4
申请日:2022-12-20
申请人: 四川大学
IPC分类号: H04N19/85 , H04N19/154 , G06T9/00 , G06T7/246 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/08
摘要: 本发明公布了一种基于NVIDIAJetson TX2平台的压缩视频质量提升方法,主要包括以下步骤:首先通过一个运动补偿子网络来有效地利用视频相邻帧间的空时相关性,并提取具有压缩视频空时域信息的融合特征,最后将融合后的特征输入至质量提升子网络得到增强视频帧。实验结果表明,本发明方法能够在边缘计算平台如NVIDIAJetson TX2上顺利部署,流畅运行,并有效地抑制视频的压缩效应,提升视频质量。
-
公开(公告)号:CN117876213A
公开(公告)日:2024-04-12
申请号:CN202211220584.4
申请日:2022-10-08
申请人: 四川大学
IPC分类号: G06T3/4007 , G06T5/73 , G06T5/60 , G06N3/0464 , G06N3/0499 , G06N3/0455 , G06N3/084 , G06T5/50 , G16H50/20 , G16H30/20
摘要: 本发明公开了人体颈椎CT序列图像横纵向点长度统一方法,主要涉及CT序列图像层间插值技术。包括以下步骤:(1)建立颈椎CT序列图像层间插值数据集。(2)搭建双路层间偏移估计网络。(3)计算中间层图像到上下层图像的粗精度层间偏移。(4)搭建偏移估计精度增强网络。(5)通过一组损失函数完成网络训练。本发明通过插值统一了横向、纵向点长度,在CT序列图像层间插值上有较为广阔的应用前景。
-
公开(公告)号:CN117853341A
公开(公告)日:2024-04-09
申请号:CN202211199178.4
申请日:2022-09-29
申请人: 四川大学
IPC分类号: G06T3/4076 , G06N3/0442 , G06N3/0455 , G06V10/77 , G06V10/80 , G06V10/82
摘要: 本发明公开了一种基于通道注意力和交叉注意力的文本生成图像方法。包括以下步骤:文本描述通过交叉注意力编码器得到单词特征矩阵和交叉注意力特征向量,交叉注意力编码器是一个需要训练的网络,该网络能够提取出原图像信息和文本信息,该网络对提取出的图像特征和文本特征通过通道注意力,通道注意力的作用是对每一个特征通道进行加权,突出重要信息,然后将其输入交叉注意力,交叉注意力将两种跨模态信息进行翻译和对齐,最终输出交叉注意力特征向量。交叉注意力特征向量输入经典三级对抗生成网络,逐级生成逼真图像。本发明所述的交叉注意力编码方法相较其他方法效果提升明显,评价指标表现良好,在文本生成图像领域有很大应用价值。
-
公开(公告)号:CN115622660B
公开(公告)日:2024-03-26
申请号:CN202110786700.8
申请日:2021-07-12
申请人: 四川大学
IPC分类号: H04L1/00
摘要: 本发明针对目前的分布式信源信道联合编码计算复杂、资源消耗大的问题,利用了多个信源之间的统计相关性,提出了基于系统极化码的多信源分布式信源信道联合编码方案,每一个分布式信源的编码使用硬件实现简单的系统极化码,在实际信道中只传输校验位,译码端根据信源之间的相关性生成联合边信息。在此基础上,本发明将打孔技术运用到校验位的传输中,实验结果表明,本发明所提出的分布式信源信道联合编译码方案在误码性能上优异,并且具有计算复杂度低、低功耗等优点。
-
公开(公告)号:CN117558280A
公开(公告)日:2024-02-13
申请号:CN202210935456.1
申请日:2022-08-04
申请人: 四川大学
摘要: 本发明提出了一种基于SincNet的短语音说话人识别方法,在测试语音长度较短的真实场景中,达到较高的说话人识别性能。为了提升说话人身份特征的提取能力,采用Sinc函数实现带通滤波器来替换传统卷积神经网络的卷积层,用不同窗口大小的Sinc滤波器组提取多分辨率的特征,并结合注意力机制增强相关特征;再将特征图输入到SEResNet中得到更高层的特征,通过空洞空间金字塔池化进行多尺度特征融合,最后通过全连接层获得语音分类得分。在TIMIT语料库上进行实验,在0.5s的测试语音条件下分类错误率降低到了7.72%,高于传统CNN等对比方法。本发明可以用于金融证券认证身份,用于司法刑事提供刑罚判处佐证等。
-
公开(公告)号:CN114511895B
公开(公告)日:2024-02-02
申请号:CN202011280735.6
申请日:2020-11-16
申请人: 四川大学
IPC分类号: G06V40/16 , G06V40/20 , G06V10/80 , G06V10/82 , G06N3/0464
摘要: 本发明涉及一种基于注意力机制多尺度网络的自然场景情绪识别方法,主要涉及人物和场景线索融合的情绪识别。本发明本发明主要包括:对于人物分支,提取特征同时加入姿态注意力机制,该分支能有效挖掘人物本身的情绪状态;对于场景分支,使用多尺度网络增强场景中局部细节特征,融合空间注意力模型自动关注场景中对情绪识别有效的区域。本发明充分利用人物与场景各自的优势进行情绪识别,提高了情绪识别的精确率。
-
公开(公告)号:CN117478889A
公开(公告)日:2024-01-30
申请号:CN202210846304.4
申请日:2022-07-19
申请人: 四川大学 , 成都西图科技有限公司
IPC分类号: H04N19/159 , H04N19/96 , H04N19/625
摘要: 本发明从VVC帧内编码的MTS过程入手,公开了一种基于多核变换和邻域编码信息的帧内快速MTS方法。首先,利用子CU间的相关性及各个变换RDcost之间的关系,对最后一个子CU的RD cost进行预测,然后根据子CU的RDcost之和与父CU的RD cost之间的关系来判断当前CU是否需要划分,根据相邻CU的编码信息来对当前CU的MTS候选列表进行重新排列,以进一步减少编码时间。本发明公开的VVC帧内快速MTS方法,相比于VVC编码标准,在不明显降低压缩编码效率的前提下,明显降低了VVC帧内编码的时间复杂度。
-
公开(公告)号:CN117252795A
公开(公告)日:2023-12-19
申请号:CN202210634989.6
申请日:2022-06-07
申请人: 四川大学
IPC分类号: G06T7/00 , G06V10/44 , G06V10/80 , G06V10/82 , G06N3/0464 , G16H50/20 , A61B5/00 , A61B5/055
摘要: 本发明公开了一种基于通道残差注意力的阿尔兹海默症分类方法。该方法通过融合残差模块与通道注意力机制的特点来进行阿尔兹海默症的分类。网络由输入模块、通道分离残差模块,通道注意力模块,输出模块构成。首先针对目前研究中出现的数据集构建出现的问题,在临床医生的指导下制定了数据集的科学划分策略;然后将处理后的数据送入通道分离残差模块提取网络的浅层特征和深层特征,并防止重复的梯度信息;再提取后的特征送入通道注意力模块调整通道之间的权重,得到更加精确的分类特征;最后将特征矩阵送入线性分类层输出分类结果。本方法在医学图像方向,阿尔兹海默症分类领域具有广阔的应用前景。
-
公开(公告)号:CN117218520A
公开(公告)日:2023-12-12
申请号:CN202210607450.1
申请日:2022-05-31
申请人: 四川大学
IPC分类号: G06V20/10 , G06V10/44 , G06V10/764 , G06V10/77 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/048
摘要: 本发明提出了一种基于多通道自注意力网络的遥感图像场景分类方法。传统方法并未有效结合图像中的局部信息和全局特征,同时对各层特征在通道维度的关系并未进一步挖掘。为解决这一问题,提出了一种融合局部‑全局特征的场景分类模型。方法包括:通过双分支卷积网络提取遥感图像的多尺度特征;随后采用特征融合单元建立多尺度特征间的关系,基于多头注意力机制的Transformer Encoder在通道维度对融合后的特征建模,并推导特征在通道间的关系,进一步扩大全局感受野,以捕捉其语义结构信息,有效提高了网络的分类精度。实验证明,该方法具有很好的实用性,可广泛应用于遥感图像场景的准确识别。
-
-
-
-
-
-
-
-
-