基于强化学习的场景布局估计方法

    公开(公告)号:CN118865392A

    公开(公告)日:2024-10-29

    申请号:CN202411339837.9

    申请日:2024-09-25

    摘要: 本发明公开了基于强化学习的场景布局估计方法,涉及场景布局估计技术领域,包括如下步骤:将场景的稠密点云映射到平面上,利用形态学侵蚀进行分割,并进行合并处理,得到房间点云;再将房间点云投影到二维平面上,提取房间点云中的边缘点云,并进行分割处理,得到独立区域的壁面点云;然后基于Q‑learning算法,确定强化学习中的状态、动作和奖励;再基于独立区域的壁面点云采用Q‑learning算法拟合线段,得到独立区域的壁面线段数据;最后基于独立区域的壁面线段数据,生成场景布局模型;本发明用于解决现有技术中无法在消除了独立区域之间的干扰和遮挡物的影响的同时减少计算量,场景布局估计效率和准确性较低的问题。

    一种基于特征动态偏移的图像语义信息挖掘方法

    公开(公告)号:CN117975309A

    公开(公告)日:2024-05-03

    申请号:CN202410228082.9

    申请日:2024-02-29

    摘要: 本发明公开了一种基于特征动态偏移的图像语义信息挖掘方法。首先获取网络训练需要的图像数据集;然后构建基于权重自适应的对角线特征偏移融合策略的交叉视角地理定位网络模型;网络模型包含无人机视角分支和卫星图视角分支,两个分支采用共享权重的学习方式;每个分支都由三个部分组成:特征提取部分、特征划分部分和分类监督部分;经过训练的神经网络模型接收需要定位的无人机视角图像,为其匹配对应的卫星图像。本发明采用权重自适应的对角线特征偏移融合策略,能够根据图像中的目标区域自适应选择划分坐标更合理的环形分区策略,从而提高了特征区域的覆盖率和表达能力,避免了因目标区域不在视觉中心位置而导致的特征提取不足问题。