一种基于TURS图像的前列腺活动表观模型建立方法

    公开(公告)号:CN114300096A

    公开(公告)日:2022-04-08

    申请号:CN202111569977.1

    申请日:2021-12-21

    发明人: 刘冬 李泳耀 丛明

    摘要: 本发明提供一种基于TURS图像的前列腺活动表观模型建立方法,属于图像处理技术领域。首先,获取前列腺3D MR与TRUS的图像数据,标记图像数据中形状特征点,并采用普氏分析方法进行形状坐标对齐。其次,采用主元法对数据降维,对特征进行分析,利用三角剖分获取纹理信息。最后,利用主元分析方法对图像纹理进行特征分析,建立形状纹理组合模型,并对组合模型进行参数求解和优化。本发明考虑到前列腺腺体形状外观变化特点,基于多组前列腺腺体的TRUS训练集图像建立前列的AAM模型,作为图像分割定位的基础,能够实现3D MR与TRUS图像的实时准确分割。

    一种基于TRUS图像的前列腺活动表观模型建立方法

    公开(公告)号:CN114300096B

    公开(公告)日:2024-09-06

    申请号:CN202111569977.1

    申请日:2021-12-21

    发明人: 刘冬 李泳耀 丛明

    摘要: 本发明提供一种基于TURS图像的前列腺活动表观模型建立方法,属于图像处理技术领域。首先,获取前列腺3D MR与TRUS的图像数据,标记图像数据中形状特征点,并采用普氏分析方法进行形状坐标对齐。其次,采用主元法对数据降维,对特征进行分析,利用三角剖分获取纹理信息。最后,利用主元分析方法对图像纹理进行特征分析,建立形状纹理组合模型,并对组合模型进行参数求解和优化。本发明考虑到前列腺腺体形状外观变化特点,基于多组前列腺腺体的TRUS训练集图像建立前列的AAM模型,作为图像分割定位的基础,能够实现3D MR与TRUS图像的实时准确分割。

    一种基于深度学习的刚软仿人手自主抓取方法

    公开(公告)号:CN115446835B

    公开(公告)日:2024-06-14

    申请号:CN202211077521.8

    申请日:2022-09-05

    IPC分类号: B25J9/16

    摘要: 本发明提供一种基于深度学习的刚软仿人手自主抓取方法,属于机器人智能控制技术领域。抓取方法包括:使用深度相机获取物体的RGB图像;将RGB图像输入进基于深度神经网络模型的YOLOv3目标检测算法,输出物体的抓取模式和抓取区域;将RGB图像输入进基于OpenCV的图像处理方法,输出物体的抓取角度;根据抓取模式、抓取区域和抓取角度控制刚软仿人手抓取物体。本发明能够同时实现抓取模式预测和抓取位姿估计,避免了复杂的抓取规划并允许刚软仿人手与桌面发生轻微接触;可以实现对刚软仿人手的精确控制,使刚软仿人手能够准确有力地抓取物体。

    一种基于深度学习的刚软仿人手自主抓取方法

    公开(公告)号:CN115446835A

    公开(公告)日:2022-12-09

    申请号:CN202211077521.8

    申请日:2022-09-05

    IPC分类号: B25J9/16

    摘要: 本发明提供一种基于深度学习的刚软仿人手自主抓取方法,属于机器人智能控制技术领域。抓取方法包括:使用深度相机获取物体的RGB图像;将RGB图像输入进基于深度神经网络模型的YOLOv3目标检测算法,输出物体的抓取模式和抓取区域;将RGB图像输入进基于OpenCV的图像处理方法,输出物体的抓取角度;根据抓取模式、抓取区域和抓取角度控制刚软仿人手抓取物体。本发明能够同时实现抓取模式预测和抓取位姿估计,避免了复杂的抓取规划并允许刚软仿人手与桌面发生轻微接触;可以实现对刚软仿人手的精确控制,使刚软仿人手能够准确有力地抓取物体。