-
公开(公告)号:CN116091447A
公开(公告)日:2023-05-09
申请号:CN202310019029.3
申请日:2023-01-06
Applicant: 北京理工大学
IPC: G06T7/00 , G06T7/73 , G06V10/44 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种基于单目RGB图像的螺栓姿态估计方法,可应用于工业生产与智能制造领域。将单目RGB图像或视频帧输入至预设的特征提取网络,得到待检测图像或视频帧的高维特征图;将得到的高维特征图输入卷积姿态网络,预测螺栓的二维关键点置信图与亲和力图;将预测结果在螺栓所有潜在对称姿态中搜索最优匹配并计算网络损失以更新网络参数;使用启发式算法在置信图和亲和力图预测结果中进行搜索,获取所有螺栓关键点二维坐标;使用直接线性变换算法建立螺栓2D‑3D关键点之间的联系,计算待测螺栓的6D姿态。
-
公开(公告)号:CN114879492A
公开(公告)日:2022-08-09
申请号:CN202210386266.9
申请日:2022-04-13
Applicant: 北京理工大学
IPC: G05B13/04
Abstract: 本发明属于多智能体系统协同控制领域,尤其涉及一种完全数据驱动的多智能体系统事件触发控制方法。本发明解决了无向通信拓扑下,未知模型的多智能体系统一致性控制问题。首先,提出了一种仅使用局部信息的完全分布式自适应事件触发控制策略,并得到了基于模型的一致性条件;进一步,利用预先收集的输入数据和状态数据,构建了基于数据的系统模型;通过将基于模型的一致性条件与基于数据的系统模型相结合,设计了数据驱动一致性控制器,实现了多智能体系统的状态渐近一致。
-
公开(公告)号:CN114758198A
公开(公告)日:2022-07-15
申请号:CN202210291566.9
申请日:2022-03-23
Applicant: 北京理工大学
IPC: G06V10/776 , G06V10/774 , G06V10/764 , G06V10/82 , G06K9/62 , G06N3/08
Abstract: 本发明公开了一种基于元学习对抗扰动的黑盒攻击方法及系统,将元学习训练数据集D输入至黑盒模型的替代模型,根据替代模型的输出结果和预先设定的目标标签计算替代模型的损失函数,根据损失函数对初始化扰动v进行梯度下降更新获得元对抗扰动v*。利用元对抗扰动v*进行黑盒攻击,若黑盒模型对图像样本的分类结果为预先设定的目标标签,则攻击完成;若分类结果不是预先设定的目标标签,则对图像样本进行更新,利用更新后的图像样本继续进行黑盒攻击,直至分类结果为预先设定的目标标签。本发明训练的元对抗扰动为原始图像选择了较好的初始位置,大幅提升了对黑盒模型的查询效率及攻击成功率,对提升神经网络黑盒攻击具有非常重要的意义。
-
公开(公告)号:CN114723107A
公开(公告)日:2022-07-08
申请号:CN202210287125.1
申请日:2022-03-22
Applicant: 北京理工大学
Abstract: 本发明提供了一种基于预测人类行为的人机交互安全保障方法,能够实现考虑人们对于风险规避,根据此时外界的环境以及人类之前的行为来预测人类接下来会采取的行为决策。本发明首次实现了在机器预测人类行为时,考虑人们在做决策时对于风险的规避心理。在本发明方法建立的模型下,考虑人类对于风险的规避,使得机器可以预测人类完成任务的动作序列,在人机协作任务中,机器人可以更加准确的预测人类的下一步行为,从而更好的配合人完成较为复杂的任务。
-
公开(公告)号:CN113917842A
公开(公告)日:2022-01-11
申请号:CN202111196749.4
申请日:2021-10-14
Applicant: 北京理工大学重庆创新中心
IPC: G05B13/04
Abstract: 本发明提供一种网络化控制系统数据驱动控制方法及其控制器,其中,本方案可实现在系统模型未知的情况下,无需系统辨识,利用系统数据设计控制器参数,保证系统稳定运行,具有普适性;其次,本方案采用了基于周期采样的动态事件触发传输策略,与传统的时间触发与事件触发策略相比,能在保证系统稳定特性的情况下,减少网络中数据的传输,节约通信资源;最后,本方案所实现的数据驱动方法,首次实现了在事件触发策略下的网络化控制系统,仅使用收集到的输入‑状态数据联合设计事件触发参数以及控制器。
-
公开(公告)号:CN115390443B
公开(公告)日:2025-04-01
申请号:CN202210547677.1
申请日:2022-05-18
Applicant: 北京理工大学
IPC: G05B13/04
Abstract: 本发明公开一种针对未知系统的数据驱动自触发控制方法,待镇定系统在线运行前先离线收集足够的输入输出轨迹,在线运行时,每个采样时刻,传感器侧将包含系统输出的数据包经过网络发送给控制器侧,控制器侧根据收到的输出数据包通过求解一个基于数据的优化问题生成一系列输入,这些输入依次发送至待镇定系统作为系统的控制输入直到下一个输出采样时刻再重新计算新的输入序列;同时控制器侧根据优化问题的最优解计算出下一次的传输时刻并通过网络发送至传感器侧,本发明能在系统矩阵未知的情况下,无需通过预先系统辨识,直接利用数据进行系统自触发机制的设计,大大减少系统辨识消耗的资源和时间,实现系统仅在很少的自触发次数下就能保证稳定。
-
公开(公告)号:CN119648747A
公开(公告)日:2025-03-18
申请号:CN202510162679.2
申请日:2025-02-14
Applicant: 北京理工大学
Abstract: 本发明公开了基于关键点和模仿学习的动作预测方法、终端及存储介质,涉及具身智能技术领域。本发明将世界模型的思想与模仿学习结合,通过环境动力学预测模型学习到更符合环境上下文的场景表示,并通过训练后的轨迹预测模型预测关键点运动轨迹,以辅助动作头模块进行动作决策。本发明利用关键点运动轨迹作为辅助信息,可以有效提升智能体的决策准确性。首先关键点不会受到光照等环境变化的影响,即使物体被部分遮挡,剩余部分的关键点轨迹依然能够提供同样的信息,因此具有较好的鲁棒性。其次,关键点的运动轨迹与智能机械装置在三维空间中的运动轨迹存在确定的映射关系,因此能够使得神经网络更好的拟合智能机械装置的移动动作。
-
公开(公告)号:CN119443577A
公开(公告)日:2025-02-14
申请号:CN202411398008.8
申请日:2024-10-09
Applicant: 北京理工大学
IPC: G06Q10/0631 , G06Q50/04 , G06N3/092 , G06N3/045 , G06N3/0985 , G06N3/084
Abstract: 本发明公开了一种基于竞争式元强化学习的作业车间调度方法和系统,首先,构造含有多个不同调度任务类型的任务库,并随机初始化多个调度模型。在每个训练周期,为各调度模型随机抽取一个任务环境,通过行为策略网络与环境的交互生成支持集,并进行模型参数的内环适应性更新。然后,再与一个新环境交互生成查询集,并进行外环元参数更新。最后,基于竞争评价函数比较各调度模型的学习效果,辨别本轮训练中评估最佳的调度模型,并使其他模型的参数朝其参数方向靠拢。重复上述过程,直到训练完成获得多个优质的调度模型。本发明帮助调度模型快速适应不同任务,提高了其自主决策和持续优化能力,对求解现实中复杂、动态的调度问题具有非常重要的意义。
-
公开(公告)号:CN114742135B
公开(公告)日:2025-01-17
申请号:CN202210288502.3
申请日:2022-03-22
Applicant: 北京理工大学
IPC: G06F18/2135 , G06N3/045 , G06N3/0464 , G06N3/044 , G06N3/0499 , G06N3/084
Abstract: 本发明提出一种基于深度神经网络的对比主成分数据分析方法,能够通过训练灵活地对数据进行非线性映射,进而提取数据中存在的对比信息。包括,对需要提取对比信息的原始数据向量进行均值中心化,从训练数据中随机选择一个批次的数据,将数据输入神经网络进行前向传播,通过目标网络和背景网络将数据映射到新的特征空间;对所述目标网络和背景网络的输出再次进行均值中心化操作,计算样本协方差矩阵,进行对比主成分分析,得到对比投影方向矩阵;计算损失函数对于网络输出的梯度值,通过反向传播算法对所述目标网络和背景网络的权重进行迭代,将全部数据进行前向传播和对比主成分分析,并将网络输出在对比投影方向上进行投影,得到对比主成分。
-
公开(公告)号:CN118466557B
公开(公告)日:2024-11-26
申请号:CN202410917392.1
申请日:2024-07-10
Applicant: 北京理工大学
Abstract: 本发明公开了无人机高速导航与避障方法、系统、终端及存储介质,涉及无人机控制技术领域。本发明中的神经网络策略可以根据无人机的观测信息,输出有效的执行动作。其训练方法为:通过复杂度随机变化的仿真环境获取无人机的仿真观测信息;通过神经网络策略采样仿真执行动作;通过马尔可夫决策模型计算下一时刻的仿真状态信息和当前时刻的及时奖励,包括路径进度奖励、安全奖励、终端奖励;根据及时奖励计算折扣奖励,并利用折扣奖励优化神经网络策略。本发明通过设置三种奖励,鼓励无人机按照航线快速前进,避免碰撞风险,更快速有效地完成任务。训练采用复杂度可随机变化的仿真环境,也有效提高了神经网络策略的泛化能力。
-
-
-
-
-
-
-
-
-