一种直接传递三维模型姿态的方法

    公开(公告)号:CN101071514A

    公开(公告)日:2007-11-14

    申请号:CN200610078215.0

    申请日:2006-05-12

    IPC分类号: G06T17/00

    摘要: 本发明为一种直接传递三维模型姿态的方法,涉及计算机图形技术,可直接将源三维模型的姿态传递给目标三维模型。首先,用户指定源/目标模型特征对应锚点,然后由对应算法自动建立源和目标三角形的对应关系;接着,三角形面片被旋转和平移以生成一个临时网格,该网格提取了参考目标网格的刚性成分,而同时又尽可能地保留了源网格的姿态信息;然后把临时网格中的面片依照预定义的拉普拉斯微分约束重新进行排列,拼接生成有意义的三维模型。本发明方法解决了单个三维模型之间的姿态传递,无论是总体的骨架结构还是精细的皮肤形变;帮助三维动画师高效快速地利用已有的三维模型库来制作具有复杂姿态的三维模型,而无需从零开始或者费时地反复手动调节。

    一种直接传递三维模型姿态的方法

    公开(公告)号:CN100545871C

    公开(公告)日:2009-09-30

    申请号:CN200610078215.0

    申请日:2006-05-12

    IPC分类号: G06T17/00

    摘要: 本发明为一种直接传递三维模型姿态的方法,涉及计算机图形技术,可直接将源三维模型的姿态传递给目标三维模型。首先,用户指定源/目标模型特征对应锚点,然后由对应算法自动建立源和目标三角形的对应关系;接着,三角形面片被旋转和平移以生成一个临时网格,该网格提取了参考目标网格的刚性成分,而同时又尽可能地保留了源网格的姿态信息;然后把临时网格中的面片依照预定义的拉普拉斯微分约束重新进行排列,拼接生成有意义的三维模型。本发明方法解决了单个三维模型之间的姿态传递,无论是总体的骨架结构还是精细的皮肤形变;帮助三维动画师高效快速地利用已有的三维模型库来制作具有复杂姿态的三维模型,而无需从零开始或者费时地反复手动调节。

    一种用于实时分割三维网格模型的笔划式交互方法

    公开(公告)号:CN101470894A

    公开(公告)日:2009-07-01

    申请号:CN200710304227.5

    申请日:2007-12-26

    IPC分类号: G06T5/00 G06T17/00

    摘要: 本发明为用于实时分割三维网格模型的笔划式交互方法。用户通过直观的笔划交互接口对三维网格模型执行分割操作;首先用基于角度的特征感知尺度获得离散微分几何特征,并采用扩散算法对三维网格模型进行分割操作;然后分别基于凸包特征和视在角度特征,用两种快速的拓扑不变且几何不变的边界调整算法生成自然的网格分割边界。用户可轻易地分割3D模型,而无须很多时间或者技巧。本发明提出两个特征感知尺度分割模型,这些尺度具有清晰的物理意义且反映了离散微分几何特征,此外,分别基于凸包特征和视在角度特征,提出两种快速的拓扑不变且几何不变的边界调整算法。与现有技术分割方法相比,本发明可轻松地在一个交互中实现多级分割。

    一种交互式图像检索方法

    公开(公告)号:CN101377776A

    公开(公告)日:2009-03-04

    申请号:CN200710121079.3

    申请日:2007-08-29

    IPC分类号: G06F17/30

    摘要: 本发明基于移动虚拟分类面的交互式图像检索方法,采用移动虚拟分类面选取图像的数据点;对图像数据点进行逐一标注;利用前一个标注的图像数据点选取下一个图像数据点;利用标注的图像数据点查找访问图像,完成交互式图像检索。在图像检索的相关反馈过程中,主动学习常常被用来减轻人工标注的数据量,其主要思想是每次仅仅选取信息量最大的数据进行标注。传统的成批标注的方法忽略了数据点之间的关系,因此不够高效。本发明提出移动虚拟分类面选点策略,利用前一个标注的数据去为下一个数据的选取提供指导,从而在不增加标注数据量的条件下提高了所标注数据总的信息量。移动虚拟分类面选点策略使主动学习算法性能得到了显著提高。

    一种提取地标性场景摘要的方法

    公开(公告)号:CN101777059B

    公开(公告)日:2011-12-07

    申请号:CN200910242751.3

    申请日:2009-12-16

    IPC分类号: G06F17/30 G06T7/00

    摘要: 本发明是一种提取地标性场景摘要的方法,该方法包括步骤如下:对每一幅地标性场景图像,提取颜色矩、小波纹理作为地标性场景图像的全局特征,提取SIFT描述子作为地标性场景图像的局部特征;利用全局特征对地标性场景图像库,根据图像的二维特征进行初始聚类;利用局部特征对初始聚类结果,从每一类中选取距离聚类中心最近的若干幅代表性图像,并对代表性图像进行两两匹配进行基于显著性几何验证;几何验证之后,从每一个聚类集合中提取标志性图像;利用类间几何验证对选出地标性场景图像中用户感兴趣的区域的标志性图像进行几何匹配筛选,将相同或相近视角的标志性图像聚为一类,从而实现相似类的融合,提取出地标性场景摘要。

    一种提取地标性场景摘要的方法

    公开(公告)号:CN101777059A

    公开(公告)日:2010-07-14

    申请号:CN200910242751.3

    申请日:2009-12-16

    IPC分类号: G06F17/30 G06T7/00

    摘要: 本发明是一种提取地标性场景摘要的方法,该方法包括步骤如下:对每一幅地标性场景图像,提取颜色矩、小波纹理作为地标性场景图像的全局特征,提取SIFT描述子作为地标性场景图像的局部特征;利用全局特征对地标性场景图像库,根据图像的二维特征进行初始聚类;利用局部特征对初始聚类结果,从每一类中选取距离聚类中心最近的若干幅代表性图像,并对代表性图像进行两两匹配进行基于显著性几何验证;几何验证之后,从每一个聚类集合中提取标志性图像;利用类间几何验证对选出地标性场景图像中用户感兴趣的区域的标志性图像进行几何匹配筛选,将相同或相近视角的标志性图像聚为一类,从而实现相似类的融合,提取出地标性场景摘要。

    一种交互式图像检索方法

    公开(公告)号:CN101377776B

    公开(公告)日:2010-06-30

    申请号:CN200710121079.3

    申请日:2007-08-29

    IPC分类号: G06F17/30

    摘要: 本发明基于移动虚拟分类面的交互式图像检索方法,采用移动虚拟分类面选取图像的数据点;对图像数据点进行逐一标注;利用前一个标注的图像数据点选取下一个图像数据点;利用标注的图像数据点查找访问图像,完成交互式图像检索。在图像检索的相关反馈过程中,主动学习常常被用来减轻人工标注的数据量,其主要思想是每次仅仅选取信息量最大的数据进行标注。传统的成批标注的方法忽略了数据点之间的关系,因此不够高效。本发明提出移动虚拟分类面选点策略,利用前一个标注的数据去为下一个数据的选取提供指导,从而在不增加标注数据量的条件下提高了所标注数据总的信息量。移动虚拟分类面选点策略使主动学习算法性能得到了显著提高。