一种基于语义分割和深度学习的图片背景风格迁移方法

    公开(公告)号:CN111242841A

    公开(公告)日:2020-06-05

    申请号:CN202010043890.X

    申请日:2020-01-15

    Abstract: 本发明提供一种基于语义分割和深度学习的图片背景风格迁移方法。本发明首先选择内容图片和风格图片并进行图片预处理;然后通过ResNet网络由内容图片和风格图片直接计算的到一张相对比较接近结果的图片;然后通过VGG-19网络获得风格约束和内容约束,根据损失函数进行梯度下降,通过多次迭代的方式获得背景风格迁移结果,最后将迁移结果放回图片上。本发明速度提高了上百倍,可扩展性强,对局部区域进行风格迁移,保留了图像主体内容,以达到突出主体,增强图像艺术表现力的效果,代码易读性和可移植性强。

    一种基于FPGA的优化有限元算法的方法

    公开(公告)号:CN111241733A

    公开(公告)日:2020-06-05

    申请号:CN202010015780.2

    申请日:2020-01-07

    Abstract: 本发明提出一种基于FPGA平台的优化有限元算法的方法。本发明利用并行运算来代替串行运算,并用梯度法优化求解计算复杂度。本发明首先对未知场域场域进行单元剖分,进而对每个单元进行分析,用有限个自由度、由单元插值函数拼接而成的近似解来逼近无限个自由度的精确解,然后将这一过程在FPGA上完成。利用其并行运算的特性来缩短大规模矩阵运算带来的长时间等待。本发明针对复杂的有限元算法得出整体离散化剖分方法以及求解单元的近似定解条件使得适合在微处理器上运行,并利用matlab coder功能将matlab语言转换为C语言使其能够在FPGA内核下运行,利用FPGA并行运算的特性以及梯度法大大减少运算时间,提升有限元算法运算效率。

    一种基于多模态特征融合的三维对象融合特征表示方法

    公开(公告)号:CN111191729A

    公开(公告)日:2020-05-22

    申请号:CN201911425234.X

    申请日:2019-12-31

    Abstract: 本发明提供一种基于多模态特征融合的三维对象融合特征表示方法。本发明将三种模态的三维模型特征表示,都做了一个非常细致的实现和复现:三维模型的多视图特征表示、点云特征表示以及网格特征表示。对多模态三维数据进行了处理、增强和融合,并基于此提取出了三维对象的融合特征表示。本发明能实现非常优秀的多模态信息融合,实现更加鲁棒的三维模型特征表示,供给其他三维对象任务使用。

    一种基于对抗生成网络的无参考图像质量地图生成方法

    公开(公告)号:CN111127587A

    公开(公告)日:2020-05-08

    申请号:CN201911299146.X

    申请日:2019-12-16

    Abstract: 本发明公开了一种基于对抗生成网络的无参考图像质量地图生成方法。本发明在生成网络部分采用8个下采样和8个上采样的U-net网络框架;在判别网络部分采用分类网络;在损失函数部分采用判别器的交叉熵加L1范数损失的方式;最后迭代训练出一个生成网络模型,通过该生成网络模型获取输入失真图的相似图,通过相似图,得到对应的质量分数。本发明无参考质量评价。通过使用训练好的神经网络框架,在没有自然图像的条件下对失真图像进行质量评价。解决了有权重问题的相似图的质量分数计算问题。基于对抗生成网络和U-net,更有效的实现了图到图的转换和迁移。实验结果在图到图的实现中有较好的结果,且模拟到的质量分数和真实的质量分数有强烈相关性和较小误差。

    一种提高TOF相机对运动模糊鲁棒性的方法

    公开(公告)号:CN110942430A

    公开(公告)日:2020-03-31

    申请号:CN201910951860.6

    申请日:2019-10-08

    Abstract: 本发明公开了一种提高TOF相机对运动模糊鲁棒性的方法。本发明步骤如下:1、利用深度传感器的双电容在一个积分时间内采集到的4个电容值Q1~Q4进行模糊检测;Q1~Q4分别为控制信号C1~C4在积分时间内收集到的电荷值;由于四相控制信号C1~C4相位差为90°,若没发生运动模糊,则需满足Q1+Q2=Q3+Q4;2、若检测到的电容值满足Q1+Q2=Q3+Q4,则使用Q1~Q4进行步骤5的深度计算;反之进入步骤3;3、通过反射回来的红外信号的斜率,并比较Q1+Q2和Q3+Q4的大小,得到由于运动模糊导致相位混合而错误的一对电容值;4、根据结果分别进入对应的电容值替换器,通过另一对正常电容值替换错误电容值进行后续的深度计算;5、使用Q1~Q4和三角函数进行深度计算。本发明简单快速且不会丢失任何原始深度图像细节。

    基于人工神经网络的RGB图像场景三维模型重建方法

    公开(公告)号:CN110633628A

    公开(公告)日:2019-12-31

    申请号:CN201910711616.2

    申请日:2019-08-02

    Abstract: 本发明公开了一种基于人工神经网络的RGB图像场景三维模型重建方法。本发明使用人工神经网络模型对输入的图像进行处理,识别得到场景的二维拓扑结构和场景中物体的类别和形状,进一步对神经网络输出的特征图进行优化,该优化分为拓扑结构优化和物体识别优化两个模块进行;随后使用该信息迭代计算得到三维模型的参数,包括平面到相机中心距离、平面法向量;使用OpenGL进行三维模型渲染,利用原输入图像中的像素颜色对重建得到的三维平面进行颜色渲染,得到更接近输入图像中场景的三维模。本发明使用单目的RGB信息还原三维信息,减少硬件成本,使用优化算法求解得到场景中拓扑平面和构成物体平面的法向量和到相机中心距离。

Patent Agency Ranking