融合双目视觉和2D激光雷达的室外定位方法

    公开(公告)号:CN114323038B

    公开(公告)日:2024-06-21

    申请号:CN202111646017.0

    申请日:2021-12-29

    发明人: 王亮 刘诤轩

    摘要: 融合双目视觉和2D激光雷达的室外定位方法,属于基于先验地图的机器人或自动驾驶汽车精确定位领域。本发明(1)将双目视觉作为里程计提供帧间的相对位姿,将一个局部时间窗口内的2D激光雷达数据融合成一幅局部子图;(2)利用DS证据理论对局部子图中的时态信息进行融合以消除局部子图中的动态噪音;(3)利用基于反向组合算法的地图匹配方式,将局部子图与预先构建的先验地图进行匹配,从而得到先验地图与局部子图之间的相对位姿;(4)根据匹配结果对局部子图的位姿进行校正,将校正后的位姿用于更新轨迹以消除双目里程计所产生的累积误差。

    基于形态学重建和饱和度补偿的单幅图像去雾方法

    公开(公告)号:CN113191982B

    公开(公告)日:2024-05-28

    申请号:CN202110524714.2

    申请日:2021-05-14

    发明人: 王亮 郑爽

    IPC分类号: G06T5/70 G06T5/73 G06T7/155

    摘要: 一种基于形态学重建和饱和度补偿的单幅图像去雾方法,属于图像去雾领域。本发明(1)采用自适应局部邻域窗口形态学重建检测出容易被误认为大气光候选区域的环境中高亮区域;并从暗通道中移除该高亮区域,以避免该高亮区域导致的大气光值估计误差,提高了全局大气光值的估计精度,并减少了复原图像天空区域过饱和现象;(2)将图像从现有的RGB色彩空间描述变换到HSV色彩空间描述后,对透射率公式推导分析,通过适当提高有雾图像的饱和度分量图来补偿被过低估计的透射率,减少复原图像中的块效应和光晕现象;(3)通过将初始复原图像进行强度线性映射拉伸,进一步提高前景与背景的对比度、增加亮度动态范围,显示更多的细节信息。

    基于三维点云处理的管道三维建模方法

    公开(公告)号:CN109147038B

    公开(公告)日:2023-02-07

    申请号:CN201810957920.0

    申请日:2018-08-21

    发明人: 王亮 闫碧莹 王凤

    摘要: 本发明公开了基于三维点云处理的管道三维建模方法,其包括,对输入点云进行数据预处理:去除离群点噪声,估计每个点的法向量;使用随机采样一致性算法通过拟合圆柱面方程的方法得到候选管道的圆柱参数模型集;利用图模型描述点云,并构造利用候选模型集标注点云所对应的能量函数,使用改进的图割算法最小化能量函数,得到点云中所有管道对应的圆柱面参数及其各自内点集;利用视点的邻接关系,使用ICP算法将不同视点下的点云中检测的管道进行配准,最终重建整个工厂管道的三维模型。所提出的方法可以应用于多种设备采集的三维点云,具有灵活易用的特点;模型参数估计准确,可以实现工厂管道的完整三维模型。

    一种基于隐式表达的安全帽配戴检测方法

    公开(公告)号:CN114463676A

    公开(公告)日:2022-05-10

    申请号:CN202210062828.4

    申请日:2022-01-19

    发明人: 王亮 孙李程

    摘要: 一种基于隐式表达的安全帽配戴检测方法,属于安全帽配戴检测系统领域。包括以下步骤:(1)采用Mosaic数据增强与自适应图片缩放将数据集随机拼接以及随机打散的方法对数据集进行预处理,(2)构建隐式与显示信息结合的目标框类别分类和预测框位置回归任务的神经网络,(3)训练隐式与显示信息结合的目标框类别分类和预测框位置回归任务的神经网络,(4)进行安全帽配戴检测。本发明针对施工现场的视角畸变、尺度变化、内遮挡和场景复杂,现有安全头盔佩戴检测精度低的问题,提出了一种基于特征图金字塔网络与路径聚合网络框架,将隐式和显式信息相结合,以增强上下文特征信息的能力;在保证高准确率的同时仍然能够实时检测。

    一种基于对抗性训练的多视图立体深度估计方法

    公开(公告)号:CN112184731A

    公开(公告)日:2021-01-05

    申请号:CN202011037998.4

    申请日:2020-09-28

    摘要: 本发明公开了一种基于对抗性训练的多视图立体深度估计方法。在对抗性训练网络中,生成网络学习图像与其对应深度图之间的映射,判别网络将学习区分深度图是来自生成模块还是基准深度。训练时,结合生成损失函数和交叉熵对抗损失函数,训练整个网络。本发明通过对抗性训练来提高多视图立体深度估计的深度学习能力,通过生成对抗网络GAN在图像深度方向收集空间和时间上的上下文信息,从而允许网络结合更多的全局信息。本发明的对抗性训练网络利用生成模块和判别模块的对抗性训练,采用梯度惩罚作为一种软约束的对抗损失函数,改进了原始生成对抗网络训练过程,显著减少了网络训练和测试期间的内存占用和运行时间,提高了多视图立体深度预测精度。

    一种三维点云中多种几何基元自动识别方法

    公开(公告)号:CN106228539A

    公开(公告)日:2016-12-14

    申请号:CN201610546455.2

    申请日:2016-07-12

    发明人: 王亮 申超 吴至秋

    IPC分类号: G06T7/00 G06T7/40

    CPC分类号: G06T7/0002 G06T2207/10028

    摘要: 本发明公开一种三维点云中多种几何基元自动识别方法,其包括,对输入的三维点云进行预处理,即体素滤波,基于Kd树建立邻域结构并估计点的法向量;对点云进行邻域关系的确定,再对点云进行抽样;计算样本点邻域的协方差矩阵,分析三个特征值的大小关系,根据共面规则生成相应的初始几何基元模型;根据初始几何基元的模型分别构建相应的能量方程,按照能量优化框架进行平面、球面和柱面能量计算;循环迭代以上步骤,对多种几何基元的能量进行最小化,利用最优化算法求解得到最优意义下的几何基元参数,从而实现几何基元模型参数的精化,最终输出多种几何基元的参数和内点。采用本发明的技术方案,不仅具有应用范围广、参数估计准确、抗干扰能力强等特点,而且大大提高了对三维点云的识别与分析能力。

    一种基于对抗性训练的多视图立体深度估计方法

    公开(公告)号:CN112184731B

    公开(公告)日:2024-05-28

    申请号:CN202011037998.4

    申请日:2020-09-28

    摘要: 本发明公开了一种基于对抗性训练的多视图立体深度估计方法。在对抗性训练网络中,生成网络学习图像与其对应深度图之间的映射,判别网络将学习区分深度图是来自生成模块还是基准深度。训练时,结合生成损失函数和交叉熵对抗损失函数,训练整个网络。本发明通过对抗性训练来提高多视图立体深度估计的深度学习能力,通过生成对抗网络GAN在图像深度方向收集空间和时间上的上下文信息,从而允许网络结合更多的全局信息。本发明的对抗性训练网络利用生成模块和判别模块的对抗性训练,采用梯度惩罚作为一种软约束的对抗损失函数,改进了原始生成对抗网络训练过程,显著减少了网络训练和测试期间的内存占用和运行时间,提高了多视图立体深度预测精度。

    平滑相机运动场景下的动态三维重建方法

    公开(公告)号:CN116681819A

    公开(公告)日:2023-09-01

    申请号:CN202310401561.1

    申请日:2023-04-16

    发明人: 王亮 李永玮

    IPC分类号: G06T17/00 G06T7/246

    摘要: 基于压缩感知在平滑相机运动场景下的动态三维重建方法,属于三维重建领域。本发明(1)结合压缩感知原理,二维投影在离散余弦变换域下的稀疏表示可以用于精确地恢复三维点轨迹。为了加强系数稀疏性,对系数施加L1范数约束作为惩罚项,构成新的重建函数,提高了动态三维重建精度;(2)新的重建函数由原来的欠定方程组转变为凸函数这一精简问题,为此在凸优化算法中设计了全新的阈值调整环节,使其配合L1范数惩罚项能够快速准确地求得稀疏解;(3)通过定义重建精度判定标准,设计新的交叉验证环节,能够为每个重建点自适应选择最优的轨迹基向量组合和稀疏约束权重,满足良好的重建关系,实现该重建函数下的最优重建。

    一种基于深度霍夫网络的注意力方案和条带卷积语义线检测的方法

    公开(公告)号:CN116563682A

    公开(公告)日:2023-08-08

    申请号:CN202310532781.8

    申请日:2023-05-11

    发明人: 王亮 章航

    摘要: 一种基于深度霍夫网络的注意力方案和条带卷积语义线检测的方法,属于图像目标识别领域。包括以下步骤:调整数据集图片尺寸,将预处理后的图片输入卷积模型进行特征提取、注意力机制,多尺度特征融合,得到输出的特征结果。不同尺度的特征进行霍夫变换并进行融合特征回归预测得到识别结果;条带卷积替换原先的空间卷积层以得到输入图像识别目标的远程相关语义信息;对前向网络的图片进行条带状池化层和空间池化层混合池化层池化;特征金字塔网络添加通道注意力模块帮助对图片分区的重要性进行建模,以减少输入图像的冗余信息对识别结果的影响;设计Ghost卷积轻量化网络减少网络的计算量。相较于常规语义线检测方法模型参数量更少,识别准确率更高。