一种基于强化学习的无人机视角车辆识别追踪方法

    公开(公告)号:CN110874578A

    公开(公告)日:2020-03-10

    申请号:CN201911119545.3

    申请日:2019-11-15

    IPC分类号: G06K9/00 G06N3/04 G06N3/08

    摘要: 本发明公开了一种基于强化学习的无人机视角车辆识别追踪方法,基于无人机视角场景理解,监控以及追踪,建立高效,自适应的全景视频管理,通过强化学习的迁移学习目标跟踪方法,可以使得无人机在非监督情况下进行自适应的快速运动的车辆跟踪。结合地面摄像头数据,协同处理,借用重识别信息和算法,实现跨视角跨方位的天地协同跟踪系统,使得交通分析不再关注重复大量的视频标注工作,解放手动监控的劳动力,能够依据软件预先提供的初始化目标车辆、快速高效准确的进行自动分析与监控应用。

    基于视频流进行三维人体姿态估计的方法

    公开(公告)号:CN109271933A

    公开(公告)日:2019-01-25

    申请号:CN201811080931.1

    申请日:2018-09-17

    IPC分类号: G06K9/00 G06T17/00

    摘要: 本发明所述基于视频流进行三维人体姿态估计的方法,基于深度学习的方法对视频流进行三维人体3D姿态估计,避免因二维视觉分析错误所导致的诸多缺陷,充分地利用视频帧间的时间关系,提高视频流3D姿态推断结果的准确性与实时性。包括有,视频第n(n≥2)帧,1)输入当前帧二维图像,采用浅层神经网络模块生成图像浅层图;2)第(n-1)帧生成的人体二维关节点热力图、当前帧生成的图像浅层图,一并输入至LSTM模块以生成深层次特征图;3)当前帧生成的深层图像特征图输出至残差模块,生成当前帧的人体二维关节点热力图;4)当前帧的人体二维关节点热力图输出至三维关节点推断模块,进行二维至三维的空间映射;以上每帧生成的人体三维关节点热力图叠加,生成三维人体姿态估计的视频流。

    一种基于双目摄像头和人形机器人的增强现实方法

    公开(公告)号:CN113379831B

    公开(公告)日:2022-09-09

    申请号:CN202110691331.4

    申请日:2021-06-22

    摘要: 本发明涉及一种基于双目摄像头和人形机器人的增强现实方法,包括(1)获取人形机器人的位置和旋转信息,获取双目摄像头的位姿信息,并还原出虚拟双目摄像头的位姿信息;(2)实时采集视频图像,对视频图像进行深度计算,得到所拍摄实景视频数据和深度信息;(3)利用深度信息将采集的视频图像还原,得到3D虚拟场景结构,将虚拟场景与实景视频进行融合;(4)将合成后的双目视频通过网络传输到客户端。该方法能够实时采集实景数据,并结合相关算法对图像进行处理,对拍摄的场景画面进行分析和结构重建,并融入几何虚拟对象,实现虚实精准融合,提升体验者观看感受,做到实时传输,其准确性、真实感、沉浸感、互动性都有了极大的提升。

    一种基于三变量双调和B样条的流体表面的时空向量化方法

    公开(公告)号:CN110335275A

    公开(公告)日:2019-10-15

    申请号:CN201910429587.0

    申请日:2019-05-22

    IPC分类号: G06T7/10 G06T15/00

    摘要: 本发明提供一种基于三变量双调和B样条的流体表面的时空向量化方法,包括:基于SFS的流体视频高度场还原;基于浅水方程的流体速度场还原;基于三变量双调和B样条的数据拟合;基于粒子表示的三维流体重现。本发明只需要使用单目流体视频作为输入,自动分析视频中流体的几何和速度信息,并利用三变量双调和B样条,实现了流体表面几何和速度在时间和空间维度上的连续化,利用连续化结果,可实现流体表面在时间和空间维度的超分辨还原;此外,本发明基于粒子实现了流体的重仿真,将流体视频还原为三维流体,进一步证明了实现视频流体运动特征驱动的物理仿真的可能性。

    一种基于三变量双调和B样条的流体表面的时空向量化方法

    公开(公告)号:CN110335275B

    公开(公告)日:2023-03-28

    申请号:CN201910429587.0

    申请日:2019-05-22

    IPC分类号: G06T7/10 G06T15/00

    摘要: 本发明提供一种基于三变量双调和B样条的流体表面的时空向量化方法,包括:基于SFS的流体视频高度场还原;基于浅水方程的流体速度场还原;基于三变量双调和B样条的数据拟合;基于粒子表示的三维流体重现。本发明只需要使用单目流体视频作为输入,自动分析视频中流体的几何和速度信息,并利用三变量双调和B样条,实现了流体表面几何和速度在时间和空间维度上的连续化,利用连续化结果,可实现流体表面在时间和空间维度的超分辨还原;此外,本发明基于粒子实现了流体的重仿真,将流体视频还原为三维流体,进一步证明了实现视频流体运动特征驱动的物理仿真的可能性。

    基于视频流进行三维人体姿态估计的方法

    公开(公告)号:CN109271933B

    公开(公告)日:2021-11-16

    申请号:CN201811080931.1

    申请日:2018-09-17

    IPC分类号: G06K9/00 G06T17/00

    摘要: 本发明所述基于视频流进行三维人体姿态估计的方法,基于深度学习的方法对视频流进行三维人体3D姿态估计,避免因二维视觉分析错误所导致的诸多缺陷,充分地利用视频帧间的时间关系,提高视频流3D姿态推断结果的准确性与实时性。包括有,视频第n(n≥2)帧,1)输入当前帧二维图像,采用浅层神经网络模块生成图像浅层图;2)第(n‑1)帧生成的人体二维关节点热力图、当前帧生成的图像浅层图,一并输入至LSTM模块以生成深层次特征图;3)当前帧生成的深层图像特征图输出至残差模块,生成当前帧的人体二维关节点热力图;4)当前帧的人体二维关节点热力图输出至三维关节点推断模块,进行二维至三维的空间映射;以上每帧生成的人体三维关节点热力图叠加,生成三维人体姿态估计的视频流。

    一种基于双目摄像头和人形机器人的增强现实方法

    公开(公告)号:CN113379831A

    公开(公告)日:2021-09-10

    申请号:CN202110691331.4

    申请日:2021-06-22

    摘要: 本发明涉及一种基于双目摄像头和人形机器人的增强现实方法,包括(1)获取人形机器人的位置和旋转信息,获取双目摄像头的位姿信息,并还原出虚拟双目摄像头的位姿信息;(2)实时采集视频图像,对视频图像进行深度计算,得到所拍摄实景视频数据和深度信息;(3)利用深度信息将采集的视频图像还原,得到3D虚拟场景结构,将虚拟场景与实景视频进行融合;(4)将合成后的双目视频通过网络传输到客户端。该方法能够实时采集实景数据,并结合相关算法对图像进行处理,对拍摄的场景画面进行分析和结构重建,并融入几何虚拟对象,实现虚实精准融合,提升体验者观看感受,做到实时传输,其准确性、真实感、沉浸感、互动性都有了极大的提升。