-
公开(公告)号:CN116465827B
公开(公告)日:2023-10-31
申请号:CN202310265157.6
申请日:2023-03-17
申请人: 中国科学院自动化研究所
IPC分类号: G01N21/01 , G01C21/00 , G06V10/74 , G06V10/762 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/084
摘要: 本发明属于路径规划技术领域,提供一种视点路径规划方法、装置、电子设备及存储介质,所述方法包括:基于待检测目标的点云数据,确定所述待检测目标对应的边界点,面元实例,以及所述面元实例对应的面元类型;基于所述面元类型对应的第一视点集合和所述边界点对应的第二视点集合,确定目标视点集合;基于所述目标视点集合,确定视点遍历路径。本发明提供的视点路径规划方法,通过获取待检测目标的点云数据,根据点云数据确定对应的边界点和面元实例的面元类型,并根据面元类型对应的视点集合和边界点对应的视点集合得到目标视点集合,从而根据目标视点集合进行视点轨迹规划,可以大大节省人力,并且适用于各种类型的待检测目标,通用性较强。
-
公开(公告)号:CN108446814B
公开(公告)日:2020-12-01
申请号:CN201810064713.2
申请日:2018-01-23
申请人: 中国科学院自动化研究所
摘要: 本发明属于流水线车间调度领域,具体涉及一种同顺序流水线车间调度的树搜索方法及装置。旨在解决同顺序流水线车间的优化调度问题。首先采用NEH算法求得初始解,然后结合树搜索方法将正向搜索和逆向搜索作为一个父结点的两个分支,分别寻优,并与父节点比较,得到正向最优解和逆向最优解,即为生成的两个子结点。通过上述方式构建树形结构,实现同顺序流水车间的优化调度。与现有技术相比,本发明缩短了最大完工时间,且该算法为确定性算法,求解结果为确定稳定解。
-
公开(公告)号:CN108446814A
公开(公告)日:2018-08-24
申请号:CN201810064713.2
申请日:2018-01-23
申请人: 中国科学院自动化研究所
CPC分类号: G06Q10/06316 , G06N20/00
摘要: 本发明属于流水线车间调度领域,具体涉及一种同顺序流水线车间调度的树搜索方法及装置。旨在解决同顺序流水线车间的优化调度问题。首先采用NEH算法求得初始解,然后结合树搜索方法将正向搜索和逆向搜索作为一个父结点的两个分支,分别寻优,并与父节点比较,得到正向最优解和逆向最优解,即为生成的两个子结点。通过上述方式构建树形结构,实现同顺序流水车间的优化调度。与现有技术相比,本发明缩短了最大完工时间,且该算法为确定性算法,求解结果为确定稳定解。
-
公开(公告)号:CN116465827A
公开(公告)日:2023-07-21
申请号:CN202310265157.6
申请日:2023-03-17
申请人: 中国科学院自动化研究所
IPC分类号: G01N21/01 , G01C21/00 , G06V10/74 , G06V10/762 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/084
摘要: 本发明属于路径规划技术领域,提供一种视点路径规划方法、装置、电子设备及存储介质,所述方法包括:基于待检测目标的点云数据,确定所述待检测目标对应的边界点,面元实例,以及所述面元实例对应的面元类型;基于所述面元类型对应的第一视点集合和所述边界点对应的第二视点集合,确定目标视点集合;基于所述目标视点集合,确定视点遍历路径。本发明提供的视点路径规划方法,通过获取待检测目标的点云数据,根据点云数据确定对应的边界点和面元实例的面元类型,并根据面元类型对应的视点集合和边界点对应的视点集合得到目标视点集合,从而根据目标视点集合进行视点轨迹规划,可以大大节省人力,并且适用于各种类型的待检测目标,通用性较强。
-
公开(公告)号:CN113109365A
公开(公告)日:2021-07-13
申请号:CN202110412232.8
申请日:2021-04-16
申请人: 中国科学院自动化研究所
IPC分类号: G01N21/956 , G01N21/01
摘要: 本发明属于外观缺陷检测领域,具体涉及一种适用于多种工件的缺陷检测系统及方法,旨在解决无法对多种类型的目标进行缺陷检测及无法进行三维检测的问题。系统包括暂存台、第一图像采集装置、上下料装置、更换台、检测装置和检测台;第一图像采集装置采集待测工件的第一图像,并发送给上位机进行工件类型的判断,上位机生成抓取策略和检测策略;第一多轴机器人基于抓取策略驱动磁吸结构抓取或更换与工件类型匹配的抓取机构,并将待测工件转送至检测台;第二多轴机器人基于检测策略带动第二图像采集装置按照预设路径移动,在移动过程中采集待测工件至少一个维度的第二图像,并发送给上位机进行缺陷检测;本发明满足对多种类型工件检测的需求。
-
公开(公告)号:CN111444019A
公开(公告)日:2020-07-24
申请号:CN202010240843.4
申请日:2020-03-31
申请人: 中国科学院自动化研究所
摘要: 本发明涉及一种云端协同的深度学习模型分布式训练方法及系统,所述训练方法包括:客户端接收用户输入的关于深度学习网络的训练任务;客户端根据所述训练任务调取网络配置和训练信息;云服务器根据网络配置和本地设备的资源情况,筛选出能够用于训练的各训练本地设备;云服务器根据所述网络配置和训练信息,生成多个训练子任务;云服务器将各训练子任务分别发送到不同的训练本地设备中;云服务器与各训练本地设备根据网络配置,对对应的训练子任务进行训练,以实现对深度学习网络的分布式训练。本发明通过云端协同实现了分布式资源的发现和筛选,从而可在深度学习模型分布式训练时合理有效的利用资源。
-
公开(公告)号:CN116690557A
公开(公告)日:2023-09-05
申请号:CN202310519734.X
申请日:2023-05-09
申请人: 中国科学院自动化研究所 , 滨州魏桥国科高等技术研究院
IPC分类号: B25J9/16
摘要: 本发明提供一种基于点云的仿人三维扫描运动控制方法和装置,该基于点云的仿人三维扫描运动控制方法包括:获取待检测对象的相机视点轨迹和机械臂末端执行器轨迹;基于相机视点轨迹和机械臂末端执行器轨迹得到轨迹曲面和轨迹曲面的变形能函数;基于变形能函数和距离偏差函数对轨迹曲面进行优化,得到待检测对象的运动规划轨迹曲线;将待检测对象的运动规划轨迹曲线输入至多目标运动控制模型进行求解,得到运动规划轨迹对应的机械臂运动控制最优解。本发明所述方法实现对多个部件或结构的连续扫描,提高了扫描的效率和准确率,能够满足复杂的工业环境和实际任务要求,且更适应多部件离散制造场景,具有广阔的工业应用前景和客观的经济效益。
-
公开(公告)号:CN109345932B
公开(公告)日:2021-09-28
申请号:CN201810996106.X
申请日:2018-08-29
申请人: 中国科学院自动化研究所 , 中国医学科学院北京协和医院
IPC分类号: G09B23/28
摘要: 本发明涉及医疗模型领域,具体涉及一种基于3D打印的医疗模型及其制作方法,目的在于提供术前模拟训练的模型。本发明的制作方法包括以下步骤:构建目标骨骼的三维数字模型;从中提取预设个数的目标骨骼的子模型;对每个目标骨骼的子模型进行孔洞修复;构建目标软组织/器官模具的三维数字模型;根据修复后的目标骨骼的子模型和模具的三维数字模型进行3D打印,得到目标骨骼的实物模型和目标软组织/器官的模具;基于3D打印得到的模具,制作目标软组织/器官的实物模型;将目标骨骼的实物模型与目标软组织/器官的实物模型进行组合,得到医疗模型。本发明制作的模型仿真度高,可以对医务人员进行术前的有效模拟训练,提高了手术成功率。
-
公开(公告)号:CN113125448A
公开(公告)日:2021-07-16
申请号:CN202110412237.0
申请日:2021-04-16
申请人: 中国科学院自动化研究所
摘要: 本发明属于工业外观缺陷检测领域,具体涉及一种表面缺陷检测系统及方法。其中系统包括多轴机器人、调节装置、色散共焦位移传感器和图像采集装置,调节装置安装在多轴机器人的执行端末端,多轴机器人至少具有六自由度,调节装置至少具有四个方向的调节度;色散共焦位移传感器和图像采集装置安装在调节装置的相对两侧;调节装置配合多轴机器人标定色散共焦位移传感器和图像采集装置的相对位置;多轴机器人基于第一预设路径带动图像采集装置进行图像采集;在移动过程中,多轴机器人基于色散共焦位移传感器的检测数据调整位姿,使被测物体的目标区域位于图像采集装置的采集范围内;本发明大大提高了检测精度,且能够对曲面部分进行自动检测。
-
公开(公告)号:CN109808183B
公开(公告)日:2020-06-16
申请号:CN201910005702.1
申请日:2019-01-03
申请人: 中国科学院自动化研究所 , 北京十维科技有限责任公司
摘要: 本发明属于3D打印领域,具体涉及一种基于神经网络的3D打印误差补偿方法、系统、装置,旨在解决3D打印过程中对模型误差补偿困难的问题。本发明结合人工智能领域的神经网络来预测和补偿加式制造所产生的误差,通过三维扫描等技术获得数据,然后利用神经网络学习3D打印中的形变函数并完成预测,或学习逆向的形变函数并直接补偿。通过本发明对新模型误差补偿更容易,同样硬件基础上模型打印的精准度得到提高,或为达到同样的精度可以降低对硬件的要求。
-
-
-
-
-
-
-
-
-