-
公开(公告)号:CN109308719B
公开(公告)日:2022-03-15
申请号:CN201811011545.7
申请日:2018-08-31
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于三维卷积的双目视差估计方法。包括下列步骤:利用双目标定方法标定双目摄像头,得到双目矫正映射图;对待估计的双目图像进行矫正,得到矫正后的双目图像;将矫正后的双目图像送入预设的二维卷积神经网络,得到经过特征变换后的特征图;将当前帧的特征图和之前多帧图像的特征图进行拼接,送入三维卷积神经网络,得到多帧图像的特征图。将多帧图像的特征图进行转置卷积,重新变换回像素域,得到视差估计图。本发明相较于现有的基于卷积神经网络的双目视差估计方法,通过三维卷积提取时间维度上的信息,结合当前帧与之前多帧的双目信息来估计当前帧的双目视差图。相较于原有方法,本方法在准确度、前后帧间的连贯性上有改进。
-
公开(公告)号:CN109344714A
公开(公告)日:2019-02-15
申请号:CN201811011543.8
申请日:2018-08-31
Applicant: 电子科技大学
IPC: G06K9/00
Abstract: 本发明公开了一种基于关键点匹配的视线估计方法,属于计算机视觉领域的视线估计。本发明通过深度网络初步定位瞳孔关键点之后,采用SGBM模板匹配方法去进一步修正瞳孔中心位置。相比于现有的视线估计方法能够更精确的定位瞳孔中心位置,尤其是对于头部或眼球偏置较大的情况。本发明的实施,能够有效的提升视线估计的精度,相比于瞳孔角膜反射方法,只采用了单个网络摄像头,大大降低了设备成本。相比于现有基于单图像处理的方法,不需要限制头部的姿态,算法的鲁棒性大大增加。通过于3D人脸模型的匹配,避免的目前已有数据库无法表示所有姿态的局限性,从而增加了该方法的实用性。
-
公开(公告)号:CN109343701A
公开(公告)日:2019-02-15
申请号:CN201811022506.7
申请日:2018-09-03
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于动态手势识别的智能人机交互方法,属于人机交互技术领域。本发明针对目前基于手势的人机交互方案一般采用传统的机器学习算法,无法满足智慧家庭背景下嵌入式设备对实时性、鲁棒性的要求。本发明通过改进轻量化的目标检测网络,实现对手部区域的快速准确检测,在此基础上集成目标跟踪算法获取手部的运动轨迹并根据轨迹分类结果提供个性化的人机交互行为。本发明能够在嵌入式设备上实现对动态手势的实时识别,并对光照、肤色、背景等因素有极强的鲁棒性,是一种面向智慧家庭场景的智能人机交互解决方案。
-
公开(公告)号:CN109308719A
公开(公告)日:2019-02-05
申请号:CN201811011545.7
申请日:2018-08-31
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于三维卷积的双目视差估计方法。包括下列步骤:利用双目标定方法标定双目摄像头,得到双目矫正映射图;对待估计的双目图像进行矫正,得到矫正后的双目图像;将矫正后的双目图像送入预设的二维卷积神经网络,得到经过特征变换后的特征图;将当前帧的特征图和之前多帧图像的特征图进行拼接,送入三维卷积神经网络,得到多帧图像的特征图。将多帧图像的特征图进行转置卷积,重新变换回像素域,得到视差估计图。本发明相较于现有的基于卷积神经网络的双目视差估计方法,通过三维卷积提取时间维度上的信息,结合当前帧与之前多帧的双目信息来估计当前帧的双目视差图。相较于原有方法,本方法在准确度、前后帧间的连贯性上有改进。
-
公开(公告)号:CN109376582B
公开(公告)日:2022-07-29
申请号:CN201811024740.3
申请日:2018-09-04
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于生成对抗网络的交互式人脸卡通方法。本发明对待处理的图像,首先行交互式分割处理,得到眉眼、嘴鼻、头发和脸部图像,再将眉眼、嘴鼻、头发分别输入三个训练好的眼、嘴鼻、头发生成模型,输出对应的卡通五官图像;基于脸部图像的卡通化处理,直接得到卡通人脸;再将人脸五官合成在卡通人脸上,并叠加上头发效果,得到最终的卡通图像。本发明利用交互式和生成对抗网络的优势,通过交互式分割得到人物头发、脸型与人脸五官,消除训练样本之间由于背景不同导致的差异性,再通过生成对抗网络对各个部分进行风格转化,尽可能多地保留眼角、嘴角等细节部分的信息。
-
公开(公告)号:CN109376582A
公开(公告)日:2019-02-22
申请号:CN201811024740.3
申请日:2018-09-04
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于生成对抗网络的交互式人脸卡通方法。本发明对待处理的图像,首先行交互式分割处理,得到眉眼、嘴鼻、头发和脸部图像,再将眉眼、嘴鼻、头发分别输入三个训练好的眼、嘴鼻、头发生成模型,输出对应的卡通五官图像;基于脸部图像的卡通化处理,直接得到卡通人脸;再将人脸五官合成在卡通人脸上,并叠加上头发效果,得到最终的卡通图像。本发明利用交互式和生成对抗网络的优势,通过交互式分割得到人物头发、脸型与人脸五官,消除训练样本之间由于背景不同导致的差异性,再通过生成对抗网络对各个部分进行风格转化,尽可能多地保留眼角、嘴角等细节部分的信息。
-
公开(公告)号:CN109344720A
公开(公告)日:2019-02-15
申请号:CN201811023852.7
申请日:2018-09-04
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于自适应特征选择的情感状态检测方法,属于计算机视觉技术邻域。本发明基于自适应特征选择可以有效地约束特征之间的类内距离与类间距离,有效减少特征之间的冗余信息和噪声,提取的特征图具有一定的鲁棒性,能够区别较为相似的类别。相比传统的算法,该方案能够更有效地对室内场景下多人的情感状态进行检测,且具有更高的精度和实时性。本发明可用于识别老年人的情感状态,通过移动终端的摄像头实时捕捉室内场景下的视频和图像数据,再基于内嵌的处理方式,利用深度神经网络实时计算自适应特征,准确快速的识别老年人的情感状态。
-
公开(公告)号:CN109344720B
公开(公告)日:2022-03-15
申请号:CN201811023852.7
申请日:2018-09-04
Applicant: 电子科技大学
IPC: G06V40/10 , G06V20/40 , G06V10/40 , G06V10/771 , G06V10/764 , G06K9/62
Abstract: 本发明公开了一种基于自适应特征选择的情感状态检测方法,属于计算机视觉技术邻域。本发明基于自适应特征选择可以有效地约束特征之间的类内距离与类间距离,有效减少特征之间的冗余信息和噪声,提取的特征图具有一定的鲁棒性,能够区别较为相似的类别。相比传统的算法,该方案能够更有效地对室内场景下多人的情感状态进行检测,且具有更高的精度和实时性。本发明可用于识别老年人的情感状态,通过移动终端的摄像头实时捕捉室内场景下的视频和图像数据,再基于内嵌的处理方式,利用深度神经网络实时计算自适应特征,准确快速的识别老年人的情感状态。
-
公开(公告)号:CN109344714B
公开(公告)日:2022-03-15
申请号:CN201811011543.8
申请日:2018-08-31
Applicant: 电子科技大学
IPC: G06V40/16
Abstract: 本发明公开了一种基于关键点匹配的视线估计方法,属于计算机视觉领域的视线估计。本发明通过深度网络初步定位瞳孔关键点之后,采用SGBM模板匹配方法去进一步修正瞳孔中心位置。相比于现有的视线估计方法能够更精确的定位瞳孔中心位置,尤其是对于头部或眼球偏置较大的情况。本发明的实施,能够有效的提升视线估计的精度,相比于瞳孔角膜反射方法,只采用了单个网络摄像头,大大降低了设备成本。相比于现有基于单图像处理的方法,不需要限制头部的姿态,算法的鲁棒性大大增加。通过于3D人脸模型的匹配,避免的目前已有数据库无法表示所有姿态的局限性,从而增加了该方法的实用性。
-
-
-
-
-
-
-
-