-
公开(公告)号:CN112558546B
公开(公告)日:2022-01-14
申请号:CN202011289151.5
申请日:2020-11-18
申请人: 大连理工大学
IPC分类号: G05B19/401
摘要: 本发明公开了一种基于计算机视觉的在线刀具参数检测方法,此方法包括第一步,在线检测系统自标定。第二步,测量起始位置初始化及相机自动对焦。第三步,测量项目选择和对应NC控制代码生成。第四步,刀具几何参数在线测量。第五步,刀具几何参数交互测量。第六步,测量结果反馈及辅助自动调机。本发明仅需要一组远心镜头搭配工业相机组成的普通光学成像设备,安装在数控机床内部,结合机床各轴运动轨迹坐标,通过相机进行数字图像序列采集,并传输给后台算法进行图像几何特征提取,结合数据先验计算出刀具外观几何参数。本发明对比加工标准,在刀具生产过程中在线测量判断刀具加工质量,提高刀具加工质量和效率。
-
公开(公告)号:CN112614098A
公开(公告)日:2021-04-06
申请号:CN202011494414.6
申请日:2020-12-17
申请人: 大连理工大学
摘要: 本发明公开了一种基于增强现实的毛坯定位与加工余量分析方法,此方法包括:第一步,视觉系统自标定;第二步,工件模型与毛坯图像匹配;第三步,交互测量;第四步,加工余量分析。本发明仅需要一组普通光学成像设备来搭建视觉系统,通过安装在数控机床内部的相机组,采集不同相机视角下的毛坯图像,利用增强现实技术将虚拟三维模型动态叠加到毛坯不同角度视图上,从而实现毛坯与工件设计模型的空间配准,指导毛胚加工坐标系定位和加工余量分析。本发明能够克服复杂机械零件加工过程中人工画线摆位方法耗时长的缺陷,提高毛坯定位精度,并给出毛坯加工余量的定量分析,提高机械加工效率。
-
公开(公告)号:CN112614098B
公开(公告)日:2022-09-20
申请号:CN202011494414.6
申请日:2020-12-17
申请人: 大连理工大学
摘要: 本发明公开了一种基于增强现实的毛坯定位与加工余量分析方法,此方法包括:第一步,视觉系统自标定;第二步,工件模型与毛坯图像匹配;第三步,交互测量;第四步,加工余量分析。本发明仅需要一组普通光学成像设备来搭建视觉系统,通过安装在数控机床内部的相机组,采集不同相机视角下的毛坯图像,利用增强现实技术将虚拟三维模型动态叠加到毛坯不同角度视图上,从而实现毛坯与工件设计模型的空间配准,指导毛胚加工坐标系定位和加工余量分析。本发明能够克服复杂机械零件加工过程中人工画线摆位方法耗时长的缺陷,提高毛坯定位精度,并给出毛坯加工余量的定量分析,提高机械加工效率。
-
公开(公告)号:CN106952262B
公开(公告)日:2022-09-20
申请号:CN201710262650.7
申请日:2017-04-25
申请人: 大连理工大学
摘要: 本发明提出了一种基于多目立体视觉的船板加工精度分析方法。此发明仅需要一组普通的光学成像设备,通过对实际加工船板的数字图像采集和特征信息提取,进行船板网格的三维重建,以及加工精度分析,进而指导加工过程中的误差修正,提高船板的加工品质,包括如下步骤:第一步,相机标定。第二步,特征提取。第三步,特征点三维重建及网格粗匹配。第四步,加工精度误差分析,采用光流场结合光滑约束和边界约束的方法建立不同相机图像中每个网格顶点的对应关系及每个网格顶点之间的偏移量;运用立体视觉原理和相机参数重建每个网格顶点在三维空间中的偏移量。此发明已在工业应用领域取得了阶段性成果,填补了造船工业中数字化测量和分析技术的空白。
-
公开(公告)号:CN114548239A
公开(公告)日:2022-05-27
申请号:CN202210106613.8
申请日:2022-01-28
申请人: 大连理工大学
摘要: 本发明提供一种基于类哺乳动物视网膜结构人工神经网络的图像识别与分类方法,属于人工智能(人工神经网络)图像识别与分类领域。本发明的目的是借鉴哺乳动物视网膜结构及其电学活动特性构建一种人工神经网络模型,最终实现对图像识别与分类任务性能的提升。实现该目的的大概思路是1)对哺乳动物视网膜网络电学特性活动进行建模仿真,2)获得视网膜各种功能细胞及其突触连接的输入输出映射曲线与拟合函数,3)以此为基础构建类视网膜前端特征提取网络,4)通过与后端卷积神经网络相结合实现一种新型的类视网膜人工神经网络结构的图像识别模型。
-
公开(公告)号:CN114708389B
公开(公告)日:2024-10-22
申请号:CN202210504256.0
申请日:2022-05-10
申请人: 大连理工大学
摘要: 本发明公开了一种基于单人体扫描点云输入的分阶段三维人体参数化重建方法,本发明仅基于单个扫描点云数据输入,通过调整参数化模板参数的形式完成重建。本发明包括分阶段的参数拟合和分区域的逐点位移拟合。其中,分阶段的参数拟合能够实现姿势外形的初步配准,实现平均误差小于1cm的重建效果;分区域的逐点位移拟合能够对细节进行微调,进一步提高可视化效果。
-
公开(公告)号:CN112558546A
公开(公告)日:2021-03-26
申请号:CN202011289151.5
申请日:2020-11-18
申请人: 大连理工大学
IPC分类号: G05B19/401
摘要: 本发明公开了一种基于计算机视觉的在线刀具参数检测方法,此方法包括第一步,在线检测系统自标定。第二步,测量起始位置初始化及相机自动对焦。第三步,测量项目选择和对应NC控制代码生成。第四步,刀具几何参数在线测量。第五步,刀具几何参数交互测量。第六步,测量结果反馈及辅助自动调机。本发明仅需要一组远心镜头搭配工业相机组成的普通光学成像设备,安装在数控机床内部,结合机床各轴运动轨迹坐标,通过相机进行数字图像序列采集,并传输给后台算法进行图像几何特征提取,结合数据先验计算出刀具外观几何参数。本发明对比加工标准,在刀具生产过程中在线测量判断刀具加工质量,提高刀具加工质量和效率。
-
公开(公告)号:CN106952262A
公开(公告)日:2017-07-14
申请号:CN201710262650.7
申请日:2017-04-25
申请人: 大连理工大学
CPC分类号: G06T7/0004 , G06T7/60 , G06T17/00 , G06T2207/10012
摘要: 本发明提出了一种基于多目立体视觉的船板加工精度分析方法。此发明仅需要一组普通的光学成像设备,通过对实际加工船板的数字图像采集和特征信息提取,进行船板网格的三维重建,以及加工精度分析,进而指导加工过程中的误差修正,提高船板的加工品质,包括如下步骤:第一步,相机标定。第二步,特征提取。第三步,特征点三维重建及网格粗匹配。第四步,加工精度误差分析,采用光流场结合光滑约束和边界约束的方法建立不同相机图像中每个网格顶点的对应关系及每个网格顶点之间的偏移量;运用立体视觉原理和相机参数重建每个网格顶点在三维空间中的偏移量。此发明已在工业应用领域取得了阶段性成果,填补了造船工业中数字化测量和分析技术的空白。
-
公开(公告)号:CN114548239B
公开(公告)日:2024-10-29
申请号:CN202210106613.8
申请日:2022-01-28
申请人: 大连理工大学
IPC分类号: G06V10/764 , G06V10/82 , G06V10/44 , G06N3/0464 , G06N3/08 , G06F30/27
摘要: 本发明提供一种基于类哺乳动物视网膜结构人工神经网络的图像识别与分类方法,属于人工智能(人工神经网络)图像识别与分类领域。本发明的目的是借鉴哺乳动物视网膜结构及其电学活动特性构建一种人工神经网络模型,最终实现对图像识别与分类任务性能的提升。实现该目的的大概思路是1)对哺乳动物视网膜网络电学特性活动进行建模仿真,2)获得视网膜各种功能细胞及其突触连接的输入输出映射曲线与拟合函数,3)以此为基础构建类视网膜前端特征提取网络,4)通过与后端卷积神经网络相结合实现一种新型的类视网膜人工神经网络结构的图像识别模型。
-
公开(公告)号:CN114708389A
公开(公告)日:2022-07-05
申请号:CN202210504256.0
申请日:2022-05-10
申请人: 大连理工大学
摘要: 本发明公开了一种基于单人体扫描点云输入的分阶段三维人体参数化重建方法,本发明仅基于单个扫描点云数据输入,通过调整参数化模板参数的形式完成重建。本发明包括分阶段的参数拟合和分区域的逐点位移拟合。其中,分阶段的参数拟合能够实现姿势外形的初步配准,实现平均误差小于1cm的重建效果;分区域的逐点位移拟合能够对细节进行微调,进一步提高可视化效果。
-
-
-
-
-
-
-
-
-