一种复杂场景下行人的多模态轨迹预测方法

    公开(公告)号:CN110781838A

    公开(公告)日:2020-02-11

    申请号:CN201911033767.3

    申请日:2019-10-28

    Abstract: 本发明公开了一种复杂场景下行人的多模态轨迹预测方法,包括以下步骤:使用视觉几何组16层卷积神经网络进行图片特征提取;使用全连接层对轨迹数据进行特征处理;输入轨迹数据特征向量VS进入生成对抗网络完成编码解码网络功能;输入图片特征数据及轨迹特征数据至物理、社会注意力模块考虑地形限制及行人交互;通过更新完的生成器部分得到更好的轨迹生成预测结果;得到的稳定轨迹预测模型SPM。本发明可以有效的提高预测的精度,并且可以生成多条合理的预测轨迹,不仅能根据原始图片的特征信息提取到相关地形限制信息,而且能够考虑到同一复杂场景下不同行人之间的社交交互情况。本发明能够更加快速和准确地预测行人未来轨迹。

    一种第一视角下的行人轨迹预测方法

    公开(公告)号:CN110516613A

    公开(公告)日:2019-11-29

    申请号:CN201910807214.2

    申请日:2019-08-29

    Abstract: 本发明公开了一种第一视角下的行人轨迹预测方法,采用编解码结构结合循环卷积网络来预测第一视角下行人轨迹策略。原始图像经过编码得到的行人轨迹信息的特征向量,然后进行解码特征向量,预测出未来的行人的轨迹信息。在公共数据集和自己采集到的数据集里,本发明都会准确的预测出多个行人的未来10帧的轨迹信息,最终预测轨迹和最终实际轨迹之间的L2距离误差提高到40,比现有方法提高了30个像素精度。本发明提出了预测行人轨迹的时空卷积循环网络方法,利用一维卷积进行编解码处理,通过时空卷积网络预测,在目前的相关方法中,实现较简单、数据获取和处理清晰、简洁,实用性强。

    一种基于非监督的卷积神经网络单目场景深度估计方法

    公开(公告)号:CN110503680A

    公开(公告)日:2019-11-26

    申请号:CN201910807213.8

    申请日:2019-08-29

    Abstract: 本发明公开了一种基于非监督的卷积神经网络单目场景深度估计方法,包括以下步骤:获取目标图像各像素点的深度值;获取目标图像上像素坐标转移到下一帧图像时的相机位姿值;构建损失函数;基于非监督的条件随机场残差卷积神经网络场景进行深度估计。本发明采用非监督方法很好地解决了手工数据标注难问题,节省了人力,提高了经济效益。本发明采用线性链条件随机场思想,实现了对原始图像的特征表达。结合非监督残差卷积神经网络场景深度估计模型,构成了非监督的条件随机场残差卷积神经网络场景深度估计模型。本发明的模型在平均相对误差(rel)、准确率(acc)上均优于其它三种模型。

Patent Agency Ranking