-
公开(公告)号:CN112000011B
公开(公告)日:2022-05-24
申请号:CN202010803490.4
申请日:2020-08-12
申请人: 深圳市烨嘉为技术有限公司
IPC分类号: G05B13/04
摘要: 一种小龙门数控加工中心的机电耦合分析与优化方法,该方法包括以下内容:(1)建立小龙门数控加工中心机电耦合模型;(2)确定机电参数作为设计变量并确定变量空间、综合响应效率和响应精度作为评价指标,采用全因子设计法设计方法创建样本点,修改机电耦合模型中的参数,得到响应值;(3)构造极限学习机(ELM),并将所选的机电参数、响应值作为样本数据,建立映射规律;(4)采用二进制引力搜索算法(RGSA)对极限学习机进行优化,获取最优响应值。本发明通过分析机电参数对小龙门数控加工中心动态性能的影响,对机械参数和控制参数进行优化,对样机的生产制造具有指导意义。
-
公开(公告)号:CN110497405B
公开(公告)日:2022-05-24
申请号:CN201910746724.3
申请日:2019-08-14
申请人: 深圳市烨嘉为技术有限公司
摘要: 用于驱控一体化控制系统的力反馈人机协作防碰撞检测方法及模块,其中方法包括S1、在预定机器人平台上建立机器人动力学方程;S2、构造基于机器人能量不变的碰撞检测算子和基于广义动量变化量的扰动观测器;S3、基于机器人系统电流实时反馈,确定各关节扭矩和碰撞力之间的关系;S4、基于碰撞检测模型的检测结果,针对不同碰撞情形,制订不同的安全防护策略;S5、基于ADAMS‑Simulink联合仿真平台对机器人碰撞检测算子的有效性和安全防护策略的合理性进行仿真验证及优化;S6、验证评估基于力反馈的避障防护安全策略实际效果。本发明具有在不增加系统复杂度和整体成本的前提下具有碰撞检测能力的优点。
-
公开(公告)号:CN109902565B
公开(公告)日:2020-05-05
申请号:CN201910051721.8
申请日:2019-01-21
申请人: 深圳市烨嘉为技术有限公司
摘要: 一种多特征融合的人体行为识别方法,利用摄像头采集人体行为视频,提取每帧图像的前景图并进行空洞填充与干扰滤除,获得人体剪影图像序列;计算图像序列中相邻帧间相似度,获得表征行为姿态的每帧图像权重;根据人体剪影图像序列中每帧图像及其对应权重,通过加权平均获得表征行为过程的动作能量图;提取动作能量图的Zernike矩、灰度直方图和纹理特征,形成包含行为时空特性的多维特征融合向量。构建不同标准行为的特征向量模板库;在行为识别过程中根据待识别视频提取待识别行为的特征向量,将待识别行为特征向量与标准行为模板库特征向量逐一匹配,根据匹配结果确定行为类别,实现人体行为的准确识别。本发明通过构建动作能量图来表征人体行为的时间变化和空间姿态特征,可提高行为识别准确率和实时性,具有一定的实用价值。
-
公开(公告)号:CN112346419B
公开(公告)日:2021-12-31
申请号:CN202011200616.5
申请日:2020-10-30
申请人: 深圳市烨嘉为技术有限公司
IPC分类号: G05B19/418
摘要: 本发明公开了一种人机安全交互方法、机器人及计算机可读存储介质,所述人机安全交互方法应用于机器人,所述人机安全交互方法包括:获取目标机器人的当前运行信息以及所述目标机器人的传感器检测到的环境信息,所述环境信息包括待检测机器人的运行信息以及人类的活动状态信息,所述待检测机器人与所述目标机器人不同;根据所述环境信息、所述当前运行信息以及预设的目标运行信息,确定控制信息;根据所述控制信息以及误差函数确定目标控制参数,其中,所述误差函数为所述当前运行信息与所述目标运行信息的误差函数;根据所述目标控制参数对所述目标机器人的运行状态进行控制。提升了对机器人进行控制的准确度。
-
公开(公告)号:CN113752266A
公开(公告)日:2021-12-07
申请号:CN202111317279.2
申请日:2021-11-09
申请人: 深圳市烨嘉为技术有限公司
IPC分类号: B25J9/16
摘要: 本发明公开的一种基于协作化驱控一体机器人的人机协作方法、系统和介质,其中方法包括:获取环境数据信息,基于所述环境数据信息进行训练分析输出第一结果并可视化显示给用户端,并等待所述用户端发送指令;接收并读取所述用户端佩戴设备发送的指令数据,基于所述指令数据识别命令行以进行协同作业;获取所述协同作业完成的第二结果并判断完成度,基于所述完成度进行机器人自检作业,并输出自检结果给所述用户端。本发明可以通过机器人进行识别环境信息以输出给用户进行提醒以应对不同的作业场景,并基于用户输入的指令进行协同作业,完成协作化驱控目标,同时可以根据作业结果判断当前作业的成功率以触发机器人的自检作业并反馈给用户供其研判。
-
公开(公告)号:CN110421406A
公开(公告)日:2019-11-08
申请号:CN201910632668.0
申请日:2019-07-14
申请人: 深圳市烨嘉为技术有限公司
IPC分类号: B23Q15/00 , B23Q15/007 , B23Q15/12
摘要: 一种基于偏心差控制的刀具动态自适应补偿方法,包括以下步骤:S1、根据基准轮廓的刀具路径加工模型,选取测量点;S2、确定刀具途径点位时的坐标系相对于零件所在的坐标系的偏心角度,二维坐标系下的变化量转换公式为:S3、根据刀具坐标点信息,计算该点相对于理论轮廓模型在刀具坐标系内的偏心差,加上针对该偏心差作出的调整量得该点的差值为S4、选择加入刀具之前点的加工状态,得到总体偏心差为S5、根据矩阵求导原则,分别求在各自变量的上的导函数并等于0,即S6、根据刀具在各个方向上的补偿调整路径。与现有技术相比,本方法有效消除了由于局部偏差而导致的曲面整体误差,能够实时动态调整补偿值,保证了零件加工的整体的均匀性。
-
公开(公告)号:CN110488608B
公开(公告)日:2022-05-27
申请号:CN201910751714.9
申请日:2019-08-14
申请人: 深圳市烨嘉为技术有限公司
IPC分类号: G05B13/04
摘要: 一种用于驱控一体化控制系统的智能化动力学参数辩识方法及模块,其中,动力学参数辩识方法包括S1、基于拉格朗日的动力学模型建立标称模型;S2、在标称模型的基础上建立实际动力学模型;S3、获取神经网络训练样本数据;S4、参数辨识神经网络训练。本发明具有建模简单、估计精度高,且可对不能建模的参数进行识别的优点。
-
公开(公告)号:CN110421406B
公开(公告)日:2021-04-20
申请号:CN201910632668.0
申请日:2019-07-14
申请人: 深圳市烨嘉为技术有限公司
IPC分类号: B23Q15/00 , B23Q15/007 , B23Q15/12
摘要: 一种基于偏心差控制的刀具动态自适应补偿方法,包括以下步骤:S1、根据基准轮廓的刀具路径加工模型,选取测量点;S2、确定刀具途径点位时的坐标系相对于零件所在的坐标系的偏心角度,二维坐标系下的变化量转换公式为:S3、根据刀具坐标点信息,计算该点相对于理论轮廓模型在刀具坐标系内的偏心差,加上针对该偏心差作出的调整量得该点的差值为S4、选择加入刀具之前点的加工状态,得到总体偏心差为S5、根据矩阵求导原则,分别求在各自变量的上的导函数并等于0,即S6、根据刀具在各个方向上的补偿调整路径。与现有技术相比,本方法有效消除了由于局部偏差而导致的曲面整体误差,能够实时动态调整补偿值,保证了零件加工的整体的均匀性。
-
公开(公告)号:CN111950630A
公开(公告)日:2020-11-17
申请号:CN202010803896.2
申请日:2020-08-12
申请人: 深圳市烨嘉为技术有限公司
摘要: 一种基于两阶段迁移学习的小样本工业产品缺陷分类方法,包括如下步骤,S1、采集正、负样本构成数据集;S21、用图像数据增强手段将数据集中负样本的数量扩充2-3倍,随机挑选数量与扩充后的负样本的数量相当的正样本,组成数量平衡的数据子集;S22、将剩余的正样本组成另一个数据集子集;S31、选取CNN检测模型,进行第一阶段的训练;S32、第二阶段的训练是在包含剩余正样本和扩充后的负样本的数据集子集上进行;S4、将S32步模型训练收敛后,在测试集上测试模型的分类性能,若满足要求,即可上线测试,否则重复划分数据子集和模型训练过程,重复S21至S32,直至满足要求。本发明具有以下有益效果:一是具有性能更好的缺陷图像高维特征;二是提高了模型对工业产品图像的表征能力;三是所述的模型训练策略具有良好的通用性。
-
公开(公告)号:CN111300491A
公开(公告)日:2020-06-19
申请号:CN201911141730.2
申请日:2019-11-20
申请人: 深圳市烨嘉为技术有限公司 , 广东省智能制造研究所 , 中国科学院深圳先进技术研究院 , 深圳华数机器人有限公司
摘要: 本发明公开了一种基于协作化驱控一体机器人的人机协作安全系统,包括图像采集终端、人机碰撞检测系统、驱控一体工业机器人控制系统、机器人本体、协作人员及通信系统,图像采集终端与人机碰撞检测系统连接,驱控一体工业机器人控制系统由机器人控制模块和机器人驱动模块组成,机器人控制模块由末端负载辨识模块和轨迹规划与优化模块组成,机器人控制模块向机器人驱动模块发送控制指令,机器人驱动模块驱动机器人本体,系统之间通过通信系统交换数据。本发明能够实时监测人与机器人本体之间的空间位置关系,通过数据交互,驱控一体工业机器人控制系统对机器人本体做出轨迹规划,驱动机器人避免碰撞的发生,显著提高人机协作过程中的安全性。
-
-
-
-
-
-
-
-
-