一种基于局部匿名时空自注意力网络的船舶轨迹预测方法

    公开(公告)号:CN117495902A

    公开(公告)日:2024-02-02

    申请号:CN202310941903.9

    申请日:2023-07-28

    Abstract: 本发明公开了一种基于局部匿名时空自注意力网络的船舶轨迹预测方法,包括步骤如下:数据处理;构建船舶交互网络;建立基于局部匿名时空自注意力网络的船舶轨迹预测模型。本发明将AIS船舶历史轨迹处理为船舶轨迹交互图。使用局部匿名聚合局部信息特征的同时,保护船舶隐私,得到初始化特征。之后利用结构自注意力卷积层学习船舶之间的结构特征。然后将结构自注意力层的输出作为时序自注意力层的输入,使用时序自注意力在时间维度上学习时序特征,该特征既囊括了船舶之间的交互信息,又体现了船舶轨迹在时间维度上的变化规律,最后使用聚合了结构与时序信息的特征对船舶航行轨迹进行预测,使得预测结果逐步接近真实船舶航行轨迹。

    一种复杂场景下行人的多模态轨迹预测方法

    公开(公告)号:CN110781838B

    公开(公告)日:2023-05-26

    申请号:CN201911033767.3

    申请日:2019-10-28

    Abstract: 本发明公开了一种复杂场景下行人的多模态轨迹预测方法,包括以下步骤:使用视觉几何组16层卷积神经网络进行图片特征提取;使用全连接层对轨迹数据进行特征处理;输入轨迹数据特征向量VS进入生成对抗网络完成编码解码网络功能;输入图片特征数据及轨迹特征数据至物理、社会注意力模块考虑地形限制及行人交互;通过更新完的生成器部分得到更好的轨迹生成预测结果;得到的稳定轨迹预测模型SPM。本发明可以有效的提高预测的精度,并且可以生成多条合理的预测轨迹,不仅能根据原始图片的特征信息提取到相关地形限制信息,而且能够考虑到同一复杂场景下不同行人之间的社交交互情况。本发明能够更加快速和准确地预测行人未来轨迹。

    一种基于快速分割网络的四足机器人盲道巡线方法

    公开(公告)号:CN116758495A

    公开(公告)日:2023-09-15

    申请号:CN202310421890.2

    申请日:2023-04-19

    Abstract: 本发明公开了一种基于快速分割网络的四足机器人盲道巡线方法,包括以下步骤:分割盲道线和计算基于视觉的偏移量。本发明采用宏观分块赋值、局部精细计算的自适应快速分割策略,仅对混合像素块进行分类推理计算,对全部为背景或前景的像素区域直接赋值,不做分类推理计算,在对精度没有任何影响的情况下大幅度提升模型在边缘计算卡上的推理速度。本发明采用视觉推算偏移量算法,通过步骤A得到的二值化图像,将二值化图像作为步骤B的输入,得到水平偏量和航向角偏量,并将水平偏量和航向角偏量作为底层PID控制算法的输入,控制四足机器人,从而有效的保证了四足机器人与盲道的相对姿态。基准测试偏移精度为±5cm。

    一种水下鱼群运动模式分析方法

    公开(公告)号:CN112712548A

    公开(公告)日:2021-04-27

    申请号:CN202011629288.0

    申请日:2020-12-31

    Abstract: 本发明公开了一种水下鱼群运动模式分析方法,包括以下步骤:构建光流场;确定特征区域;计算特征图;分析粒子运动模态;分析鱼群场景运动模式。本发明采用光流逼近鱼群运动策略。原始鱼群运动视频经过光流特征提取,像素粒子有效刻画场景运动场。无论视频的清晰度和鱼群的个体运动姿态,本发明都能够有效捕捉鱼群整体的运动模式,具有较高的精确度。本发明建立鱼群视频光流场分析模型,构建目标像素粒子的运动特征,以与邻域粒子的相对光流运动分析该粒子的运动模态,可分为五种运动模态:聚合态、扩散态、环绕态、并行态、混乱态,有效展现鱼群的活动状态。本发明更加快速、简便,计算成本较现有方案更低,从而提高经济效益。

    基于转换器模型进行视听模态融合的具身视听导航方法

    公开(公告)号:CN119469172A

    公开(公告)日:2025-02-18

    申请号:CN202411618615.0

    申请日:2024-11-13

    Abstract: 本发明公开了一种基于转换器模型进行视听模态融合的具身视听导航方法,包括以下步骤:采集视觉信息和听觉信息;最大化预期折扣回报与奖励;分别使用两个编码器对视听感官进行特征提取;使用空间音频编码器进行特征映射;对视觉和听觉两个模态的信息进行融合;使用动态路径长度加权成功衡量声源为移动声源的任务的策略;使用近端策略优化算法训练网络。本发明能施更好地协同了视觉与听觉输入,使得视听模态得以更好地融合,以提高导航的准确性与精度。本发明使用转换器模型代替传统的门控循环单元,能满足在嘈杂环境以及动态声源任务中的高难度导航要求。本发明使用近端策略优化算法进行训练,节省了人力,提高了经济效益。

    一种基于非监督的卷积神经网络单目场景深度估计方法

    公开(公告)号:CN110503680B

    公开(公告)日:2023-08-18

    申请号:CN201910807213.8

    申请日:2019-08-29

    Abstract: 本发明公开了一种基于非监督的卷积神经网络单目场景深度估计方法,包括以下步骤:获取目标图像各像素点的深度值;获取目标图像上像素坐标转移到下一帧图像时的相机位姿值;构建损失函数;基于非监督的条件随机场残差卷积神经网络场景进行深度估计。本发明采用非监督方法很好地解决了手工数据标注难问题,节省了人力,提高了经济效益。本发明采用线性链条件随机场思想,实现了对原始图像的特征表达。结合非监督残差卷积神经网络场景深度估计模型,构成了非监督的条件随机场残差卷积神经网络场景深度估计模型。本发明的模型在平均相对误差(rel)、准确率(acc)上均优于其它三种模型。

    一种第一视角下的行人轨迹预测方法

    公开(公告)号:CN110516613B

    公开(公告)日:2023-04-18

    申请号:CN201910807214.2

    申请日:2019-08-29

    Abstract: 本发明公开了一种第一视角下的行人轨迹预测方法,采用编解码结构结合循环卷积网络来预测第一视角下行人轨迹策略。原始图像经过编码得到的行人轨迹信息的特征向量,然后进行解码特征向量,预测出未来的行人的轨迹信息。在公共数据集和自己采集到的数据集里,本发明都会准确的预测出多个行人的未来10帧的轨迹信息,最终预测轨迹和最终实际轨迹之间的L2距离误差提高到40,比现有方法提高了30个像素精度。本发明提出了预测行人轨迹的时空卷积循环网络方法,利用一维卷积进行编解码处理,通过时空卷积网络预测,在目前的相关方法中,实现较简单、数据获取和处理清晰、简洁,实用性强。

    一种模型-数据混合驱动固定翼无人机自主认知避障方法

    公开(公告)号:CN116736880A

    公开(公告)日:2023-09-12

    申请号:CN202310421892.1

    申请日:2023-04-19

    Abstract: 本发明公开了一种模型‑数据混合驱动固定翼无人机自主认知避障方法,包括以下步骤:建立慢通路瞬时机动避障模型;建立快通路自适应位姿控制模型;建立类脑快慢双通路混合驱动机动动作优化模型。本发明采用类脑快慢双通路架构,合理地设计长短期决策博弈策略,实现快慢通路各自有效强化机制,实施通路间动态博弈,最终决策选择中两个通路既相对独立、又相互增强,实现整个类脑快慢双通路模型在迭代、回馈中有效形成直觉习惯,从而提升自主认知性能,有效地进行人工智能模型与人脑认知机制之间的映射,真正将脑与认知中快慢双通路交互机制和原理启发式地构建所需的自主智能系统,使自主智能系统实现智能认知。

    一种水下鱼群运动模式分析方法

    公开(公告)号:CN112712548B

    公开(公告)日:2023-07-07

    申请号:CN202011629288.0

    申请日:2020-12-31

    Abstract: 本发明公开了一种水下鱼群运动模式分析方法,包括以下步骤:构建光流场;确定特征区域;计算特征图;分析粒子运动模态;分析鱼群场景运动模式。本发明采用光流逼近鱼群运动策略。原始鱼群运动视频经过光流特征提取,像素粒子有效刻画场景运动场。无论视频的清晰度和鱼群的个体运动姿态,本发明都能够有效捕捉鱼群整体的运动模式,具有较高的精确度。本发明建立鱼群视频光流场分析模型,构建目标像素粒子的运动特征,以与邻域粒子的相对光流运动分析该粒子的运动模态,可分为五种运动模态:聚合态、扩散态、环绕态、并行态、混乱态,有效展现鱼群的活动状态。本发明更加快速、简便,计算成本较现有方案更低,从而提高经济效益。

Patent Agency Ranking