-
公开(公告)号:CN108763841B
公开(公告)日:2022-04-05
申请号:CN201810815571.9
申请日:2018-07-24
申请人: 北京航空航天大学青岛研究院 , 北京航空航天大学
IPC分类号: G06F30/23 , G06F111/10
摘要: 本发明提出一种基于对偶边界元和应变能优化分析的弹性断裂仿真方法,对有关三维线性弹性断裂的两个基本问题进行了处理。通过使用对偶边界元方法来表示含有重叠裂口表面的模型,并采用半解析方法来求解超奇异边界积分方程。通过引入接触力模型来表示来自接触载荷和裂纹前端应变能释放的连续属性。通过在断裂持续时间段内对裂纹的延展距离计算断裂因子来对裂口端的延展进行精确控制。
-
公开(公告)号:CN110874578B
公开(公告)日:2023-06-20
申请号:CN201911119545.3
申请日:2019-11-15
申请人: 北京航空航天大学青岛研究院 , 北京航空航天大学
IPC分类号: G06V20/40 , G06V20/54 , G06V10/82 , G06N3/0464 , G06N3/084
摘要: 本发明公开了一种基于强化学习的无人机视角车辆识别追踪方法,基于无人机视角场景理解,监控以及追踪,建立高效,自适应的全景视频管理,通过强化学习的迁移学习目标跟踪方法,可以使得无人机在非监督情况下进行自适应的快速运动的车辆跟踪。结合地面摄像头数据,协同处理,借用重识别信息和算法,实现跨视角跨方位的天地协同跟踪系统,使得交通分析不再关注重复大量的视频标注工作,解放手动监控的劳动力,能够依据软件预先提供的初始化目标车辆、快速高效准确的进行自动分析与监控应用。
-
公开(公告)号:CN110874578A
公开(公告)日:2020-03-10
申请号:CN201911119545.3
申请日:2019-11-15
申请人: 北京航空航天大学青岛研究院 , 北京航空航天大学
摘要: 本发明公开了一种基于强化学习的无人机视角车辆识别追踪方法,基于无人机视角场景理解,监控以及追踪,建立高效,自适应的全景视频管理,通过强化学习的迁移学习目标跟踪方法,可以使得无人机在非监督情况下进行自适应的快速运动的车辆跟踪。结合地面摄像头数据,协同处理,借用重识别信息和算法,实现跨视角跨方位的天地协同跟踪系统,使得交通分析不再关注重复大量的视频标注工作,解放手动监控的劳动力,能够依据软件预先提供的初始化目标车辆、快速高效准确的进行自动分析与监控应用。
-
公开(公告)号:CN108763841A
公开(公告)日:2018-11-06
申请号:CN201810815571.9
申请日:2018-07-24
申请人: 北京航空航天大学青岛研究院 , 北京航空航天大学
IPC分类号: G06F17/50
CPC分类号: G06F17/5018
摘要: 本发明提出一种基于对偶边界元和应变能优化分析的弹性断裂仿真方法,对有关三维线性弹性断裂的两个基本问题进行了处理。通过使用对偶边界元方法来表示含有重叠裂口表面的模型,并采用半解析方法来求解超奇异边界积分方程。通过引入接触力模型来表示来自接触载荷和裂纹前端应变能释放的连续属性。通过在断裂持续时间段内对裂纹的延展距离计算断裂因子来对裂口端的延展进行精确控制。
-
公开(公告)号:CN109271933A
公开(公告)日:2019-01-25
申请号:CN201811080931.1
申请日:2018-09-17
申请人: 北京航空航天大学青岛研究院
摘要: 本发明所述基于视频流进行三维人体姿态估计的方法,基于深度学习的方法对视频流进行三维人体3D姿态估计,避免因二维视觉分析错误所导致的诸多缺陷,充分地利用视频帧间的时间关系,提高视频流3D姿态推断结果的准确性与实时性。包括有,视频第n(n≥2)帧,1)输入当前帧二维图像,采用浅层神经网络模块生成图像浅层图;2)第(n-1)帧生成的人体二维关节点热力图、当前帧生成的图像浅层图,一并输入至LSTM模块以生成深层次特征图;3)当前帧生成的深层图像特征图输出至残差模块,生成当前帧的人体二维关节点热力图;4)当前帧的人体二维关节点热力图输出至三维关节点推断模块,进行二维至三维的空间映射;以上每帧生成的人体三维关节点热力图叠加,生成三维人体姿态估计的视频流。
-
公开(公告)号:CN113379831B
公开(公告)日:2022-09-09
申请号:CN202110691331.4
申请日:2021-06-22
申请人: 北京航空航天大学青岛研究院
摘要: 本发明涉及一种基于双目摄像头和人形机器人的增强现实方法,包括(1)获取人形机器人的位置和旋转信息,获取双目摄像头的位姿信息,并还原出虚拟双目摄像头的位姿信息;(2)实时采集视频图像,对视频图像进行深度计算,得到所拍摄实景视频数据和深度信息;(3)利用深度信息将采集的视频图像还原,得到3D虚拟场景结构,将虚拟场景与实景视频进行融合;(4)将合成后的双目视频通过网络传输到客户端。该方法能够实时采集实景数据,并结合相关算法对图像进行处理,对拍摄的场景画面进行分析和结构重建,并融入几何虚拟对象,实现虚实精准融合,提升体验者观看感受,做到实时传输,其准确性、真实感、沉浸感、互动性都有了极大的提升。
-
公开(公告)号:CN110335275A
公开(公告)日:2019-10-15
申请号:CN201910429587.0
申请日:2019-05-22
申请人: 北京航空航天大学青岛研究院
摘要: 本发明提供一种基于三变量双调和B样条的流体表面的时空向量化方法,包括:基于SFS的流体视频高度场还原;基于浅水方程的流体速度场还原;基于三变量双调和B样条的数据拟合;基于粒子表示的三维流体重现。本发明只需要使用单目流体视频作为输入,自动分析视频中流体的几何和速度信息,并利用三变量双调和B样条,实现了流体表面几何和速度在时间和空间维度上的连续化,利用连续化结果,可实现流体表面在时间和空间维度的超分辨还原;此外,本发明基于粒子实现了流体的重仿真,将流体视频还原为三维流体,进一步证明了实现视频流体运动特征驱动的物理仿真的可能性。
-
公开(公告)号:CN110335275B
公开(公告)日:2023-03-28
申请号:CN201910429587.0
申请日:2019-05-22
申请人: 北京航空航天大学青岛研究院
摘要: 本发明提供一种基于三变量双调和B样条的流体表面的时空向量化方法,包括:基于SFS的流体视频高度场还原;基于浅水方程的流体速度场还原;基于三变量双调和B样条的数据拟合;基于粒子表示的三维流体重现。本发明只需要使用单目流体视频作为输入,自动分析视频中流体的几何和速度信息,并利用三变量双调和B样条,实现了流体表面几何和速度在时间和空间维度上的连续化,利用连续化结果,可实现流体表面在时间和空间维度的超分辨还原;此外,本发明基于粒子实现了流体的重仿真,将流体视频还原为三维流体,进一步证明了实现视频流体运动特征驱动的物理仿真的可能性。
-
公开(公告)号:CN109271933B
公开(公告)日:2021-11-16
申请号:CN201811080931.1
申请日:2018-09-17
申请人: 北京航空航天大学青岛研究院
摘要: 本发明所述基于视频流进行三维人体姿态估计的方法,基于深度学习的方法对视频流进行三维人体3D姿态估计,避免因二维视觉分析错误所导致的诸多缺陷,充分地利用视频帧间的时间关系,提高视频流3D姿态推断结果的准确性与实时性。包括有,视频第n(n≥2)帧,1)输入当前帧二维图像,采用浅层神经网络模块生成图像浅层图;2)第(n‑1)帧生成的人体二维关节点热力图、当前帧生成的图像浅层图,一并输入至LSTM模块以生成深层次特征图;3)当前帧生成的深层图像特征图输出至残差模块,生成当前帧的人体二维关节点热力图;4)当前帧的人体二维关节点热力图输出至三维关节点推断模块,进行二维至三维的空间映射;以上每帧生成的人体三维关节点热力图叠加,生成三维人体姿态估计的视频流。
-
公开(公告)号:CN113379831A
公开(公告)日:2021-09-10
申请号:CN202110691331.4
申请日:2021-06-22
申请人: 北京航空航天大学青岛研究院
摘要: 本发明涉及一种基于双目摄像头和人形机器人的增强现实方法,包括(1)获取人形机器人的位置和旋转信息,获取双目摄像头的位姿信息,并还原出虚拟双目摄像头的位姿信息;(2)实时采集视频图像,对视频图像进行深度计算,得到所拍摄实景视频数据和深度信息;(3)利用深度信息将采集的视频图像还原,得到3D虚拟场景结构,将虚拟场景与实景视频进行融合;(4)将合成后的双目视频通过网络传输到客户端。该方法能够实时采集实景数据,并结合相关算法对图像进行处理,对拍摄的场景画面进行分析和结构重建,并融入几何虚拟对象,实现虚实精准融合,提升体验者观看感受,做到实时传输,其准确性、真实感、沉浸感、互动性都有了极大的提升。
-
-
-
-
-
-
-
-
-