一种机器人位姿数据校正方法、芯片及移动机器人

    公开(公告)号:CN117346817A

    公开(公告)日:2024-01-05

    申请号:CN202311269849.4

    申请日:2023-09-28

    Abstract: 本申请公开一种机器人位姿数据校正方法、芯片及移动机器人,机器人位姿数据校正方法包括:步骤A1、机器人通过感测装置采集待感知测量值;步骤A2、基于运动学方程由待感知测量值计算出当前位姿预测数据;步骤A3、基于采集周期内所采集的待感知测量值形成的统计信息来判断机器人是否处于静止状态,是则执行步骤A4,否则执行步骤A5;步骤A4、对运动学方程中的偏置值进行更新或基于卡尔曼滤波算法校正当前位姿预测数据;步骤A5、从待感知测量值中获取左轮转动测量值和右轮转动测量值,再基于卡尔曼滤波算法计算出左轮预测位姿数据修正值和右轮预测位姿数据修正值,再使用左轮预测位姿数据修正值和右轮预测位姿数据修正值校正当前位姿预测数据。

    一种机器人受冲击检测方法、芯片及机器人

    公开(公告)号:CN117283606A

    公开(公告)日:2023-12-26

    申请号:CN202311269768.4

    申请日:2023-09-28

    Abstract: 本申请公开一种机器人受冲击检测方法、芯片及机器人,机器人受冲击检测方法包括:获取观测速度值和观测速度方向,获取当前时刻的预测速度值和当前时刻的预测速度方向;计算观测速度值与预测速度值之间的差值绝对值得到当前速度变化对应的欧式距离;计算观测速度方向与预测速度方向之间的夹角的余弦值得到当前速度变化对应的余弦距离;当前速度变化对应的欧式距离大于预设欧式距离阈值且当前速度变化对应的余弦距离小于预设余弦距离阈值时,利用目标冲击感知网络模型进行分类处理,得到机器人当前时刻受冲击的第一预测概率与第二预测概率;机器人当前时刻受冲击的第一预测概率大于机器人当前时刻受冲击的第二预测概率时,确定机器人受到冲击。

    基于卡尔曼滤波的机器人位姿预估方法

    公开(公告)号:CN117601111A

    公开(公告)日:2024-02-27

    申请号:CN202311270182.X

    申请日:2023-09-28

    Abstract: 本申请公开基于卡尔曼滤波的机器人位姿预估方法,包括:步骤A1、基于预先设置的相关性扫描匹配算法的运行结果,机器人获取当前位姿观测数据及其噪声协方差矩阵;再对当前位姿观测数据进行数据关联处理,得到历史位姿观测数据;步骤A2、基于运动学方程计算出当前位姿预测数据;并基于状态方程计算当前位姿预测数据的先验协方差矩阵;步骤A3、基于延迟乱序观测方程使用当前位姿观测数据的噪声协方差矩阵以及当前位姿预测数据的先验协方差矩阵计算卡尔曼增益矩阵;步骤A4、根据当前位姿观测数据与历史位姿观测数据之间的残差对当前位姿预测数据进行校正,再将校正后的当前位姿预测数据设置为当前预估出的位姿预测数据;提高机器人位姿预测的准确性。

    基于冲击感知神经网络的机器人检测横向冲击方法

    公开(公告)号:CN117325158A

    公开(公告)日:2024-01-02

    申请号:CN202311269958.6

    申请日:2023-09-28

    Abstract: 本申请公开基于冲击感知神经网络的机器人检测横向冲击方法,包括:步骤A、控制机器人的感测装置采集原始位姿数据,并在原始位姿数据中提取出待感知测量值序列;步骤B、利用已训练的冲击感知神经网络对所述待感知测量值序列进行分类,得到第一目标预测概率与第二目标预测概率;步骤C、判断第一目标预测概率是否大于第二目标预测概率,是则确定机器人检测到其受到横向冲击,否则确定机器人检测到其不受到横向冲击。从而不会因为对感测装置实时采集的原始位姿数据进行有效性判断后而停止使用神经网络进行分类识别,也不会因为对感测装置实时采集的原始位姿数据进行卡尔曼滤波后才开始使用神经网络进行分类识别,提高机器人检测横向冲击的效率。

    基于多模态大模型的机器人控制方法

    公开(公告)号:CN119897864A

    公开(公告)日:2025-04-29

    申请号:CN202510283787.5

    申请日:2025-03-11

    Abstract: 基于多模态大模型的机器人控制方法,解决了现有基于大模型的机器人控制方法的泛化性和适应性的问题,属于机器人控制领域。本发明包括:多模态规划大模型根据用户的要求和历史行为记录,解构出子任务序列,指令生成模型根据解构出的子任务序列生成相应控制指令,并存入划指针队列中;规划指针管理规划指针队列中的控制指令,正常执行完的控制指令被移入历史行为记录中;训练时,通过人机交互对规划控制进行评判,执行效果好的规划内容存入优秀数据集中,利用优秀数据集对多模态规划模型和指令生成模型进行微调优化;利用优化后的两个模型和规划指针对机器人进行控制。

    一种基于稠密特征匹配的室内服务机器人重定位方法

    公开(公告)号:CN115578426A

    公开(公告)日:2023-01-06

    申请号:CN202211314225.5

    申请日:2022-10-25

    Abstract: 一种基于稠密特征匹配的室内服务机器人重定位方法,为解决基于关键帧的重定位算法的室内服务机器人在恶劣环境中无法精确定位的问题,根据室内场景的RGB图像和深度图像获取室内服务机器人的位姿,建立关键帧数据库,利用网络提取每张RGB图像的全局描述子组成全局描述子数据库;利用网络提取获得待查询RGB图像的全局描述子,计算全局描述子与全局描述子数据库的余弦相似度,将相似度最高的RGB图像作为检索图像;利用稠密特征匹配网络建立待查询RGB图像和检索图像特征点的关系;根据检索图像对应的位姿计算检索图像的特征点对应的路标点,建立待查询RGB图像特征点与路标点的关系;获得待查询RGB图像对应的室内服务机器人的位姿。

    一种基于稠密特征匹配的室内服务机器人重定位方法

    公开(公告)号:CN115578426B

    公开(公告)日:2023-08-18

    申请号:CN202211314225.5

    申请日:2022-10-25

    Abstract: 一种基于稠密特征匹配的室内服务机器人重定位方法,为解决基于关键帧的重定位算法的室内服务机器人在恶劣环境中无法精确定位的问题,根据室内场景的RGB图像和深度图像获取室内服务机器人的位姿,建立关键帧数据库,利用网络提取每张RGB图像的全局描述子组成全局描述子数据库;利用网络提取获得待查询RGB图像的全局描述子,计算全局描述子与全局描述子数据库的余弦相似度,将相似度最高的RGB图像作为检索图像;利用稠密特征匹配网络建立待查询RGB图像和检索图像特征点的关系;根据检索图像对应的位姿计算检索图像的特征点对应的路标点,建立待查询RGB图像特征点与路标点的关系;获得待查询RGB图像对应的室内服务机器人的位姿。

    一种基于小数据量微调的大语言模型对齐优化方法及存储介质

    公开(公告)号:CN119293245A

    公开(公告)日:2025-01-10

    申请号:CN202411292104.4

    申请日:2024-09-14

    Abstract: 一种基于小数据量微调的大语言模型对齐优化方法及存储介质,本发明涉及基于小数据量微调的大语言模型对齐优化方法及存储介质。本发明的目的是为了解决现有大模型微调需要大量的标注数据、需要耗费大量的计算资源、需要更高的微调成本和开发时间的问题。过程为:1、构建针对特定目标任务的数据集,划分为两部分,一部分为微调数据集,一部分为对齐数据集;同时构建针对特定目标任务的问题数据集;2、得到微调模型;3、获得评判模型;4、将对齐数据集中问题输入微调模型,微调模型输出结果,计算微调模型输出结果与目标结果的相似度;将微调模型输出结果输入评判模型,评判模型输出评判结果;5、获取对齐优化后的目标模型。

    基于混合训练策略的决策和大语言模型的语音交互方法及存储介质

    公开(公告)号:CN119229874A

    公开(公告)日:2024-12-31

    申请号:CN202411285266.5

    申请日:2024-09-13

    Abstract: 基于混合训练策略的决策和大语言模型的语音交互方法及存储介质,本发明涉及语音交互方法及存储介质。本发明的目的是为了解决现有大语言模型由于缺乏足够的领域知识,无法提供准确的回答,以及采用两个大语言模型会带来计算成本高,响应时间长的问题。过程为:设置特定的回答格式;构建决策数据集;构建用于特定场景对话问答的对话数据集;基于对话数据集采用全参微调对大语言模型进行第一次微调,得到一次微调后的大语言模型;基于决策数据集采用LoRA对一次微调后的大语言模型进行第二次微调,得到二次微调后的大语言模型;将语音识别模块和语音合成模块接入二次微调后的大语言模型,对用户待测语音问题进行处理,生成语音与用户交互。

    双向融合6D物体位姿估计方法
    10.
    发明公开

    公开(公告)号:CN118799393A

    公开(公告)日:2024-10-18

    申请号:CN202410801484.3

    申请日:2024-06-20

    Abstract: 双向融合6D物体位姿估计方法,解决了在位姿估计时传感器噪声干扰影响网络性能,鲁棒性较差的问题,属于物体位姿估计领域。本发明提供一种基于新型transformer架构的双向融合6D物体位姿估计方法:对待估计场景的RGB图像与深度图像进行预处理,将深度图像转换成点云数据;利用特征提取层提取RGB图像中的外观特征和点云数据中的几何特征;双向特征融合层集成在特征提取层的每一个维度内;自适应MOE层根据特征提取层最后输出的特征判断主导模态,调整外观特征和几何特征的权重,得到MOE特征,并与特征提取层最后输出的外观特征和几何特征进行拼接,拼接后输入至6D物体位姿估计层得到每个物体的6D位姿参数。

Patent Agency Ranking