一种非绿幕下的实时高分辨率戏曲人物抠图方法

    公开(公告)号:CN113240701B

    公开(公告)日:2024-02-27

    申请号:CN202110618876.2

    申请日:2021-06-03

    申请人: 西北大学

    摘要: 本发明公开了一种非绿幕下的实时高分辨率戏曲人物抠图方法,首先提前捕获一张背景图,然后将图片与背景图输入到Base网络中进行计算,得出低分辨率的结果,之后由Refiner网络对局部位置进行细化,对抠图内容进行完善;本发明对Base网络进行了改进,引入了MobileNetV3作为BackBone结构,同时将网络的第一层卷积层更改为接收输入图像和背景图像的6个通道;过两个网络使抠图效果更加精细,同时改进的网络提高了抠图的效率,提高了实时处理的效率,实验表明对图像的粗粒度处理速度有很大提升,极大提高了抠图的实时性,解决了无法在自然背景下实现高分辨率抠图的问题。

    一种轻量型平衡胶囊网络模型的瓷器碎片分类方法

    公开(公告)号:CN117541866A

    公开(公告)日:2024-02-09

    申请号:CN202311519087.9

    申请日:2023-11-14

    申请人: 西北大学

    摘要: 本发明公开了一种轻量型平衡胶囊网络模型的瓷器碎片分类方法,包括如下步骤:步骤1、采集和构建瓷器碎片图像数据集;步骤2、对瓷器碎片图像进行预处理;步骤3、先在胶囊网络的普通卷积层和主胶囊层之间引入一个轻量化通道变换模块ChannelTrans,再结合焦点损失focal loss设计损失函数MF‑R loss,然后利用动态学习率对原始动态路由进行自适应改进,从而构建出用于对陶瓷碎片进行分类的轻量型平衡胶囊网络模型;步骤4、整合并训练轻量型平衡胶囊网络模型;步骤5、利用训练好的轻量型平衡胶囊网络模型预测出图像分类结果,提高了对陶瓷图像分类的准确率。

    一种基于多尺度密集特征融合的妆容迁移方法

    公开(公告)号:CN114998970A

    公开(公告)日:2022-09-02

    申请号:CN202210739266.2

    申请日:2022-06-28

    申请人: 西北大学

    摘要: 本发明公开了一种基于多尺度密集特征融合的妆容迁移方法,首先借用多尺度金字塔结构思想,对原图像和目标图像进行下采样,得到不同尺寸的输入图像;然后在生成器中将不同尺寸的图像输入到密集特征模块进行风格特征提取,将提取到的风格特征从原图像迁移到目标图像中,通过与判别器不断的博弈对抗,生成所需要的翻译图像;最后,通过渐进式增长生成器训练的方式,在训练的每个阶段中不断增加密集特征模块,实现原图像的妆容迁移,生成所需要的目标图像妆容风格的图像;与现有最先进的方法相比,本发明的方法训练时长减少3/4,并且生成图像的细节特征较好,可以更好地捕获源域和目标域之间分布的差异,提高妆容迁移的质量。

    一种非绿幕下的实时高分辨率戏曲人物抠图方法

    公开(公告)号:CN113240701A

    公开(公告)日:2021-08-10

    申请号:CN202110618876.2

    申请日:2021-06-03

    申请人: 西北大学

    IPC分类号: G06T7/194 G06N3/04

    摘要: 本发明公开了一种非绿幕下的实时高分辨率戏曲人物抠图方法,首先提前捕获一张背景图,然后将图片与背景图输入到Base网络中进行计算,得出低分辨率的结果,之后由Refiner网络对局部位置进行细化,对抠图内容进行完善;本发明对Base网络进行了改进,引入了MobileNetV3作为BackBone结构,同时将网络的第一层卷积层更改为接收输入图像和背景图像的6个通道;过两个网络使抠图效果更加精细,同时改进的网络提高了抠图的效率,提高了实时处理的效率,实验表明对图像的粗粒度处理速度有很大提升,极大提高了抠图的实时性,解决了无法在自然背景下实现高分辨率抠图的问题。

    一种陶瓷显微图像气泡的提取方法

    公开(公告)号:CN112669311A

    公开(公告)日:2021-04-16

    申请号:CN202110021631.1

    申请日:2021-01-08

    申请人: 西北大学

    摘要: 本发明公开一种陶瓷显微图像气泡的提取方法,具体包括:步骤1,通过显微照相机获取陶瓷碎片的显微图像;步骤2,对陶瓷显微图像进行预处理,得到预处理后的图像;步骤3,对预处理后的图像采用灰度共生矩阵提取显微图像的气泡纹理特征;步骤4,将灰度共生矩阵处理后的图像传入发到Unet分割算法中得到最终气泡提取结果;本发明采用灰度共生矩阵算法与深度学习算法Unet结合的方式,克服了单一算法受采集光线影响的问题,解决了提取边缘不清晰的问题。

    一种基于复振幅的多亮度条纹图像融合方法

    公开(公告)号:CN118154434A

    公开(公告)日:2024-06-07

    申请号:CN202410074931.X

    申请日:2024-01-18

    申请人: 西北大学

    IPC分类号: G06T5/50 G06T7/55 G06T7/77

    摘要: 本发明公开了一种基于复振幅的多亮度条纹图像融合方法,利用相位的复数形式,结合逆方差加权原理,将测量过程中所有非饱和的有效像素全部用于条纹融合过程中,最大限度的利用所有原始测量数据,提升了高动态范围表面物体的测量精度和结构光测量系统的抗随机噪声能力。将每个非饱和像素的权重设置为方差的倒数进行加权融合,在计算过程中引入复振幅进行简化计算,将方差的计算转换为调制度的计算,提升解相速度;相比于现有条纹融合算法,结合逆方差加权原理,将拍摄到的所有非饱和像素均用于条纹融合,得到理论上方差最小的最优条纹融合图案,提升扫描原始数据的利用率,提升结构光三维测量精度;将所有有效像素的方差倒数作为加权融合的权重,极大提升测量过程抗环境光随机噪声能力。

    一种基于风格对抗生成网络stylegan2的脸谱图像生成方法

    公开(公告)号:CN114663275B

    公开(公告)日:2024-03-15

    申请号:CN202210338393.1

    申请日:2022-04-01

    申请人: 西北大学

    摘要: 本发明公开了一种基于风格对抗生成网络stylegan2的脸谱图像生成方法,包括如下步骤:步骤1,对脸谱图像数据集进行预处理;步骤2,改进风格对抗生成网络stylegan2;步骤3,向改进后的风格对抗生成网络stylegan2导入数据集;步骤4,训练改进后的风格对抗生成网络stylegan2得到新脸谱:通过操作镜像模块不断微调每次迭代后的生成脸谱图像参数,在网络过拟合前不断观察,随着FID值不断下降并稳定下来,最后停止训练并挑出图像质量较好的阶段的参数,输入生成器进行图像生成,得到最终的新脸谱。本方法实现了基于风格对抗生成网络stylegan2的脸谱图像生成,操作方便,提高了脸谱图像生成的质量和精度。

    基于PIFu和3D-GAN改进的秦腔人物三维模型重建的方法

    公开(公告)号:CN113345077B

    公开(公告)日:2024-03-15

    申请号:CN202110648230.9

    申请日:2021-06-10

    申请人: 西北大学

    IPC分类号: G06T17/00 G06N3/045 G06N3/08

    摘要: 本发明公开了一种基于PIFu和3D‑GAN改进的秦腔人物三维模型重建的方法,首先对2D秦腔人物图片进行重新设置尺寸;然后利用Background‑based抠图算法对2D戏曲人物图片进行消除背景操作;之后给图像加上mask,并提取图像的mask区域,完成对2D秦腔人物图片的预处理操作;然后修改3D‑GAN网络,将其中纹理重建部分融入PIFu网络的Tex‑PIFu模型,为了使得生成前后身份保持一致性,本发明增加3D‑GAN一个生成器,并引入循环一致性损失;最后将提取mask区域得到的图片输入到3D‑GAN中,对2D戏曲人物图片进行三维重建;本发明方法使生成的三维模型更加生动逼真,解决了3D‑GAN生成的三维模型纹理粗糙以及训练时间较长的问题,大大提升了三维重建模型的逼真度和运算速度。