-
公开(公告)号:CN113219493A
公开(公告)日:2021-08-06
申请号:CN202110454876.3
申请日:2021-04-26
申请人: 中山大学
IPC分类号: G01S17/931 , G01S7/48 , G06N3/04 , G06N3/08
摘要: 本发明涉及激光雷达传感器及自动驾驶技术领域,更具体地,涉及一种基于三维激光雷达传感器的端到端点云数据压缩方法。方法结合了一个具有三通道融合邻域曲率和密度特征的编码器和一个具有额外可训练参数的鲁棒解码器。结合特征信息,ConvLSTM在点云编解码过程中可以得到更多的细节增强。交替解码和上采样的结构保证了点云的准确恢复。此外,提出的混合损失函数具有更快的收敛速度和更好的拟合性能。实验表明,与基于Draco、八叉树和JPEG的压缩算法相比,该方法可以获得更高的压缩率和满意的压缩质量。此外,本发明的方法在不同的场景下均具有很好的泛化能力。
-
公开(公告)号:CN112651503A
公开(公告)日:2021-04-13
申请号:CN202011487638.4
申请日:2020-12-16
申请人: 中山大学
IPC分类号: G06N3/10
摘要: 本发明涉及神经网络仿真技术领域,具体涉及一种用于优化并行类脑仿真的图划分方法,包括以下步骤:S1、将图划分为若干个分部,然后循环执行以下步骤;S2、当网络未收敛时,按照原则选取整个网络中具有最大正收益数的收益(x,n,p,q);S3、将子族群p整体移动至q分部,分别找出具有最多和最少节点数的分部a和b;S4、计算平衡数c;S5、如果平衡数c大于0,则从分部a至b平衡性移动c个节点;S6、如果当前划分结果的总割边数小于历史划分结果的总割边数,则执行以下步骤:更新历史划分结果,按照扰动数执行扰动,扰动数*=衰减系数;否则,退出总循环。本发明的用于优化并行类脑仿真的图划分方法,消耗的时间短,效率高。
-
公开(公告)号:CN108415237B
公开(公告)日:2021-04-02
申请号:CN201810070246.4
申请日:2018-01-24
申请人: 中山大学
IPC分类号: G05B9/03
摘要: 本发明涉及自动驾驶的技术领域,更具体地,涉及一种基于软硬件冗余评分模型的嵌入式高可靠自动驾驶控制器。一种基于软硬件冗余评分模型的嵌入式高可靠自动驾驶控制器,其中,包括自动驾驶控制器,分别与自动驾驶控制器连接的输入模块、处理模块、输出模块;所述的输入模块与上层传感器连接,所述的处理模块分别连接横向控制器和纵向控制器,所述的输出模块连接底层硬件。本发明改善了无人驾驶控制器在容错性和功耗上的性能,降低了无人驾驶控制器在实际复杂路况中出现宕机或功能失常的概率,提高了无人驾驶车辆的安全性;使用RTOS提高了系统整体的实时可控性,结合完善的控制逻辑显著提高控制器的适应能力。整体体验始终贴近甚至超过优秀驾驶员的驾驶水平。
-
公开(公告)号:CN112396562A
公开(公告)日:2021-02-23
申请号:CN202011283187.2
申请日:2020-11-17
申请人: 中山大学
摘要: 本发明属于机器人感知领域,更具体地,涉及一种高动态范围场景下基于RGB与DVS图像融合的视差图增强方法。包括:S1.部署双目RGB相机以及DVS相机,并对双目RGB相机以及DVS相机进行标定;S2.采集场景中双目相机RGB图像以及DVS图像,经过配准之后进行多尺度加权融合;S3.为融合后的图像生成针对计算机视觉的HDR图像;S4.基于步骤S3生成的HDR图像使用改进后的双目立体匹配算法SGM生成视差图。在隧道这类成像动态范围较大的场景中,解决相机出现的欠曝光以及高曝光问题,提高生成图像的质量,同时针对图像边缘区域不连续、不稳定的问题,通过引入其他信息源的方式,尽可能丰富边缘细节信息,提高最终生成的视差图在图像边缘处的准确率。
-
-
公开(公告)号:CN110992403A
公开(公告)日:2020-04-10
申请号:CN201911312568.6
申请日:2019-12-18
申请人: 中山大学
摘要: 本发明涉及一种实时水面船只视觉跟踪系统及其方法,该系统包括用于获取图像的图像获取模块、卡尔曼滤波模块和自适应模块,所述卡尔曼滤波模块包括卡尔曼滤波更新模块和卡尔曼滤波预测模块;自适应模块根据图像的误差值将图像决定调用卡尔曼滤波预测模块或卡尔曼滤波更新模块进行不同的追踪流程。本发明提出的自适应模块,通过预测帧间误差以及误差的变化趋势,动态的调用卡尔曼滤波的预测与更新模块,相较于现有方法面对不同的应用场景拥有更强大的适应能力。
-
公开(公告)号:CN110738241A
公开(公告)日:2020-01-31
申请号:CN201910907166.4
申请日:2019-09-24
申请人: 中山大学
摘要: 本发明涉及一种基于神经网络的双目立体视觉匹配方法及其运算框架,匹配方法包括如下步骤,构建神经网络运算框架、构建二值神经网络并进行训练;初始化神经网络运算框架;步骤三:将左图像和右图像输入二值神经网络进行图像特征提取,得到一串二值序列作为图像像素点的特征描述;使用二值神经网络代理卷积神经网络用于图像的特征提取,并设计专门针对二值神经网络的神经网络训练方式和运算的运算框架,使得双目立体视觉的匹配不仅有更高的精度,同时有更快的运算速度。
-
公开(公告)号:CN110244734A
公开(公告)日:2019-09-17
申请号:CN201910537330.7
申请日:2019-06-20
申请人: 中山大学
IPC分类号: G05D1/02
摘要: 本发明涉及一种基于深度卷积神经网络的自动驾驶车辆路径规划方法;首先构建深度卷积神经网络模型;然后采集车辆在不同驾驶环境下的障碍物栅格图,以及对应的参考路径,用于构建深度卷积神经网络模型训练、验证和测试的样例数据库;最后,将训练和测试完成的深度卷积神经网络模型用于自动驾驶车辆,向神经网络实时输入障碍物栅格图和参考路径,生成关键采样区域,并利用基于采样的路径规划算法,从关键采样区域中采样并规划生成路径。本发明克服了端到端方法中,预测误差无法克服的问题,使自动驾驶车辆的行驶轨迹更稳定和可控;也克服了从预设的路径集中选择路径方法缺乏灵活性和适应性的缺点,提高路径规划的灵活性,同时并保证了路径质量。
-
公开(公告)号:CN110175344A
公开(公告)日:2019-08-27
申请号:CN201910218582.3
申请日:2019-03-21
申请人: 中山大学
IPC分类号: G06F17/50
摘要: 本发明涉及激光雷达传感器及自动驾驶领域,更具体地,涉及一种针对自动驾驶场景的激光雷达线束分布调整优化方法。本发明首先根据指定的优化线束数量,建立激光雷达线束模型。之后,根据环境感知任务的要求,设定优化参数,进行粗优化。最后,对粗优化结果进行细优化调优,得到优化后的激光线束分布。得到的优化激光线束分布可以在驾驶模拟器等虚拟环境中测试及验证其在环境感知任务的效果提升。与现行常用多线激光雷达均匀的线束分布相比,该方法对特定的目标检测任务具有针对性,使得优化后的传感器在目标检测具有检测准确率高,范围大的特点。
-
公开(公告)号:CN110032182A
公开(公告)日:2019-07-19
申请号:CN201910181584.X
申请日:2019-03-11
申请人: 中山大学
IPC分类号: G05D1/02
摘要: 本发明涉及一种融合可视图法和稳定稀疏随机快速树机器人规划算法。包括以下步骤:S1.基于可视图法构建拓扑图对环境进行建模;S2.利用dijkstra算法得到最短路径,并作为参考路径;S3.对参考路径进行分割,结合SST算法利用平均采样策略在参考路径一定范围内随机采样;S4.利用Bias-goal提高算法效率;S5.在当前拓展范围内,根据Dubins距离选择离当前采样点区域范围内的最近树节点;S6.采用横向控制策略选取控制量对系统模型进行积分,耗散最优的节点优先拓展;S7.若拓展过程无碰撞,考察生成的新节点是否在局部邻域内是最优节点;若最优则加入树结构,并修剪当前区域的主导节点。本发明利用稳定稀疏随机快速树算法对可视图法生成的路径进行优化,以得到符合非完整性约束机器人约束的最优路径。
-
-
-
-
-
-
-
-
-