基于点、线特征约束的同时定位与建图方法

    公开(公告)号:CN117218195A

    公开(公告)日:2023-12-12

    申请号:CN202311161453.8

    申请日:2023-09-11

    Applicant: 福州大学

    Inventor: 张立伟 蔡锦人

    Abstract: 本发明提出基于点、线特征约束的同时定位与建图方法,用于设备在移动时的位姿定位与建图作业,包括以下步骤;首先、通过对设备移动过程拍摄图像内的点、线特征的提取和对于线特征的长度筛除来获得追踪质量较高的点、线特征;其次,根据被检测的点特征在其固定半径范围内进行搜索,获取相似位置的线特征;根据点,线特征进行分组并且耦合使用;最后,采用点线耦合特征进行联合建图,并定义点特征、线特征、线特征残差与点线耦合特征残差,而后进行后端的非线性优化,通过最小化残差达到位姿估计与地图构建的目的;本发明采用点线耦合特征进行联合建图,能够更精准的输出机器人位姿及进行地图构建。

    动态环境混合视觉系统的动态物检测和静态地图重建方法

    公开(公告)号:CN112132857B

    公开(公告)日:2023-04-07

    申请号:CN202010991546.3

    申请日:2020-09-18

    Applicant: 福州大学

    Abstract: 本发明提出动态环境混合视觉系统的动态物检测和静态地图重建方法,包括以下步骤;步骤S1:进行外参标定,获取全景相机和三维激光两传感器之间的坐标变换参数;步骤S2:将第t帧点云作为特征点投射到第t帧图像上,获取特征点的像素运动向量,并估算因小车运动而引起的特征点的人工运动向量来进行背景运动补偿,从而获得点云中动态点;步骤S3:对当前帧点云进行簇分割;步骤S4:利用点云数据中每个点索引唯一特性,结合动态点检测结果与分割结果,通过簇中动态点的占比进行判断,提取出动态物体;步骤S5:利用八叉树地图工具和该帧下的激光雷达里程计,对静态地图进行重建;本发明可鲁棒地、更为完整地进行动态物体提取和静态三维地图重建。

    基于通行效率评估的机器人分层式自主探索方法

    公开(公告)号:CN115129057A

    公开(公告)日:2022-09-30

    申请号:CN202210793053.8

    申请日:2022-07-07

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于通行效率评估的机器人分层式自主探索方法,包括以下步骤:步骤S1:获取待规划区域三维点云数据,并将环境区域划分为稀疏区域和稠密区域;步骤S2:基于待规划区域三维点云数据,进行区域通行效率评估;步骤S3:综合评估机器人探索代价和收益,利用稀疏区域点云信息进行自主探索全局规划,生成全局路径;步骤S4:根据机器人实时位置和机器人附近稠密区域的点云信息,进行局部路径规划,生成局部精细路径;步骤S5:连接全局路径和局部路径,生成自主探索有序路径点,并将处理结果存入列表中,以此实现分层式自主探索框架;步骤S6:对机器人探索过程中生成地图进行更新。本发明能够实现移动机器人自主探索未知环境并建立环境地图。

    基于卷积神经网络的全景深度估计方法

    公开(公告)号:CN112750155B

    公开(公告)日:2022-07-01

    申请号:CN202110053166.X

    申请日:2021-01-15

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于卷积神经网络的全景深度估计方法,包括以下步骤:步骤S1:采集室外环境的RGB图像,深度图像,点云数据,并根据柱面投影原理将RGB图像以及深度图像拼接成为全景图像;步骤S2:构建卷积神经网络模型,并基于的得到全景图像训练,得到训练后的卷积神经网络模型;步骤S3:将待测的全景图像输入训练后的卷积神经网络模型,获得密集的全景深度预测图像。本发明能够调整优化全景图像的局部细节,从而估计出密集而且准确的全景深度图像。

    一种单次拍摄的LIDAR与全景相机的外参数标定方法

    公开(公告)号:CN111260735B

    公开(公告)日:2022-07-01

    申请号:CN202010034949.9

    申请日:2020-01-13

    Applicant: 福州大学

    Abstract: 本发明涉及一种单次拍摄的LIDAR与全景相机的外参数标定方法,包括如下内容将LIDAR与全景相机固定在Robotnik移动机器人上。然后将多个棋盘放置于LIDAR与全景相机的共同视场下,一次拍摄收集单帧的全景图像与该帧全景图像对应的点云数据;接着,利用生长的棋盘角点检测算法,检测出全景图像的棋盘角点;对点云数据进行预处理,分割去除点云地面,分割点云平面、提取棋盘点云;基于点云的反射强度,估计出棋盘点云的棋盘角点;最后,通过定义从棋盘左下侧开始的角点共同计数顺序,建立全景图像的棋盘角点与点云的棋盘角点的几何约束方程,求解出外部校准参数。只需要一次拍摄,就能实现LIDAR和全景相机的外参数标定。

    一种基于改进生成对抗网络的交通图像去雾方法

    公开(公告)号:CN112801902A

    公开(公告)日:2021-05-14

    申请号:CN202110129493.9

    申请日:2021-01-29

    Applicant: 福州大学

    Abstract: 本发明提供了一种基于改进生成对抗网络的交通图像去雾方法,包括步骤:建立交通图像去雾数据集;搭建基于混合注意力的生成器网络和多尺度判别器网络,并优化损失函数;使用建立的交通图像去雾数据集训练基于混合注意力的生成器网络和多尺度判别器网络;将需要去雾的图像输入至训练好的生成器网络中,得到去雾后的图像。本发明能够解决在对交通图像进行去雾时出现的颜色失真、细节丢失以及浓雾区域去雾效果不理想问题。

    一种通用无人潜水器及其仿真软件平台

    公开(公告)号:CN112530007A

    公开(公告)日:2021-03-19

    申请号:CN202011541255.0

    申请日:2020-12-23

    Applicant: 福州大学

    Abstract: 本发明涉及一种通用无人潜水器及其仿真软件平台,无人潜水器包括底板,底板上方设有两个密封舱,第一密封舱放置锂电池,第二密封舱放置相机云台与IMU模块、通信控制系统,无人潜水器的前、后、上方各装有两个推进器,底板下方设有DVL和测深声呐传感器,两侧支撑挡板中间设有浮力架及浮力块;仿真软件平台包括:创建无人潜水器三维模型;创建仿真环境的海底三维模型;创建两个可视化窗口,用于实时观察无人潜水器运动状态及其周围水域环境,以及相机云台录像、机器人运动轨迹和测深声呐图像。该无人潜水器设计合理,通用性强,该仿真软件平台可对无人潜水器运动状态进行三维动态仿真,实现轨迹追踪、海底地形测绘和周围场景的实时获取及全程可视化。

    一种单次拍摄的LIDAR与全景相机的外参数标定方法

    公开(公告)号:CN111260735A

    公开(公告)日:2020-06-09

    申请号:CN202010034949.9

    申请日:2020-01-13

    Applicant: 福州大学

    Abstract: 本发明涉及一种单次拍摄的LIDAR与全景相机的外参数标定方法,包括如下内容将LIDAR与全景相机固定在Robotnik移动机器人上。然后将多个棋盘放置于LIDAR与全景相机的共同视场下,一次拍摄收集单帧的全景图像与该帧全景图像对应的点云数据;接着,利用生长的棋盘角点检测算法,检测出全景图像的棋盘角点;对点云数据进行预处理,分割去除点云地面,分割点云平面、提取棋盘点云;基于点云的反射强度,估计出棋盘点云的棋盘角点;最后,通过定义从棋盘左下侧开始的角点共同计数顺序,建立全景图像的棋盘角点与点云的棋盘角点的几何约束方程,求解出外部校准参数。只需要一次拍摄,就能实现LIDAR和全景相机的外参数标定。

Patent Agency Ranking