-
公开(公告)号:CN113870290B
公开(公告)日:2022-06-03
申请号:CN202111149050.2
申请日:2021-09-29
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于边缘分布引导的图像分割方法,属于图像处理和深度学习领域。本发明包括:1)采集原始图像数据,进行数据预处理形成训练数据集;2)构建特征提取器;3)构建边缘分布生成模块;4)构建基于边缘分布引导的解码器;5)将边缘分布预测模块和边缘分布引导的解码器插入到特征提取器,构建基于边缘分布引导的分割网络;6)利用训练数据集对基于边缘分布引导的分割网络进行训练;7)输入新的图像,使用已经训练好的基于边缘分布引导的分割网络输出最终的分割结果。本发明基于边缘分布引导的解码器使用生成的边缘分布图自动纠正分割结果中与边缘分布矛盾的部分,从而生成更加精确的图像分割结果。
-
公开(公告)号:CN114494284A
公开(公告)日:2022-05-13
申请号:CN202111635864.7
申请日:2021-12-29
Applicant: 电子科技大学
Abstract: 本发明的目的在于提供一种基于显式监督区域关系的场景解析模型及方法,属于计算机视觉中的图像分割技术领域。本发明所公开的场景解析模型通过对场景图片中的区域内和区域间关系分别建模,并在网络训练过程中给予两种区域关系对应的显式监督信息,使得区域内关系模块利用了更准确的区域内类别先验信息,提高了困难类别的判别能力;通过区域间关系模块捕捉了更准确的区域间类别相互关系,提高了相似类别的分辨能力,具有解析准确率高、额外计算复杂度低等特点。
-
公开(公告)号:CN112926662B
公开(公告)日:2022-05-03
申请号:CN202110222614.4
申请日:2021-02-25
Applicant: 电子科技大学
Abstract: 本发明提供一种基于多尺度语言嵌入REC的目标检测方法,把语言特征转化为不同尺度的卷积核,并与视觉特征进行卷积,得到语言特征与视觉特征每个点及其周围的点的相似度,将得到的相似度谱作用回原始视觉特征上,加强与语言相关的视觉特征的表达,同时引入全局视觉语言相互作用信息及位置信息,预测被描述的目标的位置,提升了网络对于视觉上下文的利用能力,相比于基准的普通基于单阶段REC的目标检测方法,预测准确率更高。
-
公开(公告)号:CN113870290A
公开(公告)日:2021-12-31
申请号:CN202111149050.2
申请日:2021-09-29
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于边缘分布引导的图像分割方法,属于图像处理和深度学习领域。本发明包括:1)采集原始图像数据,进行数据预处理形成训练数据集;2)构建特征提取器;3)构建边缘分布生成模块;4)构建基于边缘分布引导的解码器;5)将边缘分布预测模块和边缘分布引导的解码器插入到特征提取器,构建基于边缘分布引导的分割网络;6)利用训练数据集对基于边缘分布引导的分割网络进行训练;7)输入新的图像,使用已经训练好的基于边缘分布引导的分割网络输出最终的分割结果。本发明基于边缘分布引导的解码器使用生成的边缘分布图自动纠正分割结果中与边缘分布矛盾的部分,从而生成更加精确的图像分割结果。
-
公开(公告)号:CN112926453A
公开(公告)日:2021-06-08
申请号:CN202110213933.9
申请日:2021-02-26
Applicant: 电子科技大学
Abstract: 本发明公开了基于运动特征增强和长时时序建模的考场作弊行为分析方法,属于视频行为识别领域和深度学习领域,首先收集数据集,再对数据进行行为类别的标注并将视频流提取为图像帧,基于运动特征增强的方法提升模型对运动目标的捕获能力,通过特征谱移位方式进行帧之间的信息融合,基于时序金字塔的方法对长时的时序关系进行建模,完成识别模型的搭建;然后根据数据集获得的图像采用Xavier方法对行为识别分类模型进行初始化,采用分段抽取的方式获得视频帧的采样序列,基于分类模型的损失函数进行迭代到预设迭代次数,完成模型的训练,最后使用通过抽样获得的视频帧序列进行推理测试,得到具体的行为类别结果。
-
公开(公告)号:CN110956671A
公开(公告)日:2020-04-03
申请号:CN201911290877.8
申请日:2019-12-12
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于多尺度特征编码的图像压缩方法,通过训练集图像特征的梯度谱绝对值取平均得到选择向量,并利用选择向量来指导不同通道特征选择编码分辨率;同时将低分辨率编码的特征在解码端经过超分辨网络进行恢复,最终与高分辨率编码的特征重新组合成完整特征谱,映射回原始图像。本发明针对图像特征的特点进行差异性处理,对于容易从上下文信息恢复的特征用低分辨率传输,从而节省了码率;对于复杂的精细特征用高分辨率传输,减小了损失程度。
-
公开(公告)号:CN103024332B
公开(公告)日:2015-05-27
申请号:CN201210574113.3
申请日:2012-12-26
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于边缘和运动检测的视频去隔行方法,属于视频图像处理技术领域。本发明根据相邻视频场之间点阵内对应像素的差值情况,判断视频内容是否发生显著运动,再据此采取不同的方法恢复出由于隔行扫描而丢失的像素,基于丢失场中待插值的像素在前后场中多个边缘检测的基础上,对丢失场的斜边像素及垂直方向的像素,选用不同的候选像素集进行插值恢复。另外,本发明还根据已处理像素位置的参数结果,统计参数的变化比并对后续相关参数进行动态自适应更新,以克服由于边缘检测不准确造成图像中出现不该有的插值亮点问题。本发明用于与数字视频去隔行相关的实际视频系统中,本发明计算简便,并行化高,处理的视频面质高。
-
公开(公告)号:CN103024332A
公开(公告)日:2013-04-03
申请号:CN201210574113.3
申请日:2012-12-26
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于边缘和运动检测的视频去隔行方法,属于视频图像处理技术领域。本发明根据相邻视频场之间点阵内对应像素的差值情况,判断视频内容是否发生显著运动,再据此采取不同的方法恢复出由于隔行扫描而丢失的像素,基于丢失场中待插值的像素在前后场中多个边缘检测的基础上,对丢失场的斜边像素及垂直方向的像素,选用不同的候选像素集进行插值恢复。另外,本发明还根据已处理像素位置的参数结果,统计参数的变化比并对后续相关参数进行动态自适应更新,以克服由于边缘检测不准确造成图像中出现不该有的插值亮点问题。本发明用于与数字视频去隔行相关的实际视频系统中,本发明计算简便,并行化高,处理的视频面质高。
-
公开(公告)号:CN102930542A
公开(公告)日:2013-02-13
申请号:CN201210424716.5
申请日:2012-10-31
Applicant: 电子科技大学
IPC: G06T7/00
Abstract: 本发明一种基于全局对比度的矢量化显著检测方法,包括步骤:1)提取图像中每个像素点的特征矢量,将图像中所有像素的特征矢量构成特征矩阵;2)对特征矩阵沿行方向求均值,得到图像的均值矢量;3)将特征矩阵的转置中每个元素取平方后沿行方向求和,将求和结果与特征矩阵的转置和均值矢量乘积的2倍相减得到图像的显著度矢量;4)将图像的显著度矢量形成该图像的显著谱。本发明相比现有的基于全局对比度的显著检测方法,更高效、计算复杂度低。
-
公开(公告)号:CN119203019A
公开(公告)日:2024-12-27
申请号:CN202411024976.2
申请日:2024-07-29
Applicant: 电子科技大学
IPC: G06F18/25 , G06V40/20 , G06V20/40 , G06F18/22 , G06F18/213 , G06V10/44 , G06V10/82 , G06N3/0455 , G06N3/096
Abstract: 该发明公开了一种基于视觉语言知识引入的零样本多模态第一视角行为识别方法,属于多模态行为识别领域。本发明首先将视觉模态输入预训练的CLIP视觉编码器提取视觉特征,将经过STFT变换的加速度计模态、陀螺仪模态频谱图提取对应的特征,文本通过预训练的CLIP文本编码器提取到文本特征。然后将视觉特征传入到适配器模块,将零样本知识与新的自适应特征知识进行动态结合,得到最终的视觉特征。加速度计模态、陀螺仪模态通过惯性传感器融合模块得到最终的惯性传感器特征。最后将文本、视觉、惯性传感器特征一同输入多模态融合模块,充分考虑不同模态间对齐的问题,有效地提升模态融合的效果。该方法在零样本多模态第一视角行为识别任务上表现令人满意。
-
-
-
-
-
-
-
-
-