-
公开(公告)号:CN118736117A
公开(公告)日:2024-10-01
申请号:CN202410809847.8
申请日:2024-06-21
Applicant: 中国科学院软件研究所
Abstract: 本发明提出一种手物交互场景的新视角生成和姿态估计方法和装置,采用基于神经辐射场模型的方法,实现手物交互场景下的新视角生成和姿态估计。本发明提出了基于两阶段的方法实现手物交互场景重构,离线阶段基于神经辐射场分别建立人手和物体模型,模型可以通过输入人手或物体姿态得到形状和渲染图像;在线阶段通过优化的方法优化人手和物体姿态,从而实现基于稀疏视角的手物交互场景重构和渲染。在基于视频序列的任务中,为减少手物交互时的姿态抖动以及接触位置的滑动,本发明提出稳定接触损失,可明显提升手物交互时的稳定性。经过实际使用验证,本发明具有自动化程度高、精度高和真实感高的优点,可满足专业的或者大众化的应用需求。
-
公开(公告)号:CN114820899A
公开(公告)日:2022-07-29
申请号:CN202210355511.X
申请日:2022-04-06
Applicant: 中国科学院软件研究所
IPC: G06T15/00
Abstract: 本发明提供一种基于多视角渲染的姿态估计方法和装置,所述方法包括以下步骤:在深度图像中检测出对象区域;从深度图像的对象区域中提取出对象的三维点云;在以对象的三维点云为中心的球面上均匀设置多个虚拟相机;通过神经网络从设置的虚拟相机中选择少量适合进行对象姿态估计的虚拟相机;将对象的三维点云投影到选择的虚拟相机上,渲染出多个视角的对象深度图像;使用三维姿态估计网络对多个视角的深度图像进行三维对象姿态估计;融合多个视角的三维对象姿态得到最终的三维对象姿态。经过实际使用验证,本发明具有自动化程度高、精度高和实时性的优点,可满足专业的或者大众化的应用需求。
-
公开(公告)号:CN113888697A
公开(公告)日:2022-01-04
申请号:CN202111144111.6
申请日:2021-09-28
Applicant: 中国科学院软件研究所
Abstract: 本发明公开了一种双手交互状态下的三维重建方法,其步骤包括:1)输入单张彩色图像,2)检测图像中双手关键点的2.5D热图;3)提取该彩色图像的特征;4)将2.5D热图和所提取的特征输入到ResNet50深层残差模块中提取特征图;5)根据2.5D热图得到左、右手注意力图;6)使用特征图预测双手之间的相对位置关系;7)根据特征图与左、右手注意力图得到左、右手特征图;8)利用左、右手特征图预测左、右手参数化模型的参数;9)根据参数回归双手的三维关键点位置,生成左、右手注意力图更新模型参数;使用最新预测的模型参数生成的左、右手注意力图与特征图生成人手参数化模型。本发明适用于双手交叉或分离状态的三维重建。
-
公开(公告)号:CN113888697B
公开(公告)日:2024-11-12
申请号:CN202111144111.6
申请日:2021-09-28
Applicant: 中国科学院软件研究所
IPC: G06T17/00 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种双手交互状态下的三维重建方法,其步骤包括:1)输入单张彩色图像,2)检测图像中双手关键点的2.5D热图;3)提取该彩色图像的特征;4)将2.5D热图和所提取的特征输入到ResNet50深层残差模块中提取特征图;5)根据2.5D热图得到左、右手注意力图;6)使用特征图预测双手之间的相对位置关系;7)根据特征图与左、右手注意力图得到左、右手特征图;8)利用左、右手特征图预测左、右手参数化模型的参数;9)根据参数回归双手的三维关键点位置,生成左、右手注意力图更新模型参数;使用最新预测的模型参数生成的左、右手注意力图与特征图生成人手参数化模型。本发明适用于双手交叉或分离状态的三维重建。
-
公开(公告)号:CN118736118A
公开(公告)日:2024-10-01
申请号:CN202410809854.8
申请日:2024-06-21
Applicant: 中国科学院软件研究所
IPC: G06T17/00 , G06N3/0455 , G06N3/082
Abstract: 本发明公开了一种带有稠密对应关系的形状表示方法和系统。该方法仅使用被表示对象的形状数据集学习带有稠密对应关系的形状表示模型,并且能处理大形变物体。该方法无监督地优化模板形状以及目标形状与模板形状之间的对应关系,设计了模板形状正则约束和多尺度对应点刚性约束。本发明能够表示各种大幅度运动的物体,且训练时不需要骨架先验,大量实验表明提出的方法在人体和动物等数据集上都取得很好的实验结果,可满足专业的或者大众化的应用需求。
-
公开(公告)号:CN116452660A
公开(公告)日:2023-07-18
申请号:CN202310284524.7
申请日:2023-03-22
Applicant: 中国科学院软件研究所
Abstract: 本发明提供一种基于循环迭代优化的姿态估计方法和装置。该方法构建循环迭代网络,在每次循环迭代的每个阶段利用通过姿态得到的变换矩阵将点云进行对齐,然后计算对齐后点云的关节位置;在下次迭代的第一阶段利用当前迭代第三阶段得到的变换矩阵,用于将点云进行对齐;在第二阶段预测关节过程中加入循环姿势估计模块,利用LSTM模块保存当前迭代过程中的记忆单元和隐藏状态,并可将记忆单元和隐藏状态传递到下次迭代的LSTM模块中以提升预测的准确性;训练多次迭代的循环迭代网络,利用训练完成的循环迭代网络预测对象的关键点位置。本发明可以明显提高姿态估计的精度,具有自动化程度高、精度高和速度快的优点,可满足专业的或者大众化的应用需求。
-
-
-
-
-