-
公开(公告)号:CN110032952B
公开(公告)日:2020-11-10
申请号:CN201910232810.2
申请日:2019-03-26
申请人: 西安交通大学
摘要: 本发明公开了一种基于深度学习的道路边界点检测方法,首先采集和扩充交通场景图像数据集,并且对数据集进行道路边界点标注和预处理;其次对定义好网络结构的卷积神经网络进行训练,采用反向传播算法和随机梯度下降方法,不断更新迭代,直到前向传播的损失函数值趋于收敛时,停止训练,得到深度学习模型;然后输入待检测交通场景图片,提取图像特征,得到一组热图;最后根据热图预测交通场景图片中的道路边界点位置;本发明基于简单道路交通场景环境的道路场景图片和视频,能够有效实现道路边界点的检测,检测效果较准确,方法简单有效。
-
公开(公告)号:CN104036500A
公开(公告)日:2014-09-10
申请号:CN201410239863.4
申请日:2014-05-30
申请人: 西安交通大学
IPC分类号: G06T7/00
摘要: 本发明公开了一种窄带背景探测的快速双循环水平集方法,首先将视频各帧予以超像素分割,在首帧根据前景显著图初始化水平集核函数和前景轮廓像素,并建立基于超像素的前景特征池和窄带背景特征池;计算双链环像素上各点属于前景和窄带背景的颜色概率值和纹理概率值,加权作为该点的区域竞争项,由区域竞争项的符号可驱动水平集双循环过程,更新水平集核函数、前景轮廓像素和特征池;在前景轮廓精准化阶段,基于极大似然后验概率原理,将前景似然模型和窄带背景似然模型的比值,作为新的区域竞争项,驱动水平集双循环过程进一步精细化前景轮廓;本发明基于复杂室外环境的道路场景视频,有效实现运动前景的轮廓跟踪,跟踪速度快,方法简单有效。
-
公开(公告)号:CN111611919B
公开(公告)日:2022-08-16
申请号:CN202010431561.2
申请日:2020-05-20
申请人: 西安交通大学苏州研究院
IPC分类号: G06V20/54 , G06V10/774 , G06V10/764 , G06V10/26 , G06V10/40 , G06K9/62
摘要: 一种基于结构化学习的道路场景布局分析方法,采集和扩充交通场景图像数据集,并且对数据集按场景平台分类进行标注和预处理;对图像进行子区域分割,先对图像进行超像素分割,用超像素的特征和标签训练增强决策树回归器,得到初始分割结果,再用马尔科夫随机场优化初始分割结果得到最终分割结果;然后在子区域上提取特征,用子区域特征和隐变量标签训练SVM分类器,预测出每张图片子区域隐变量的组合;最后用子区域隐变量的组合和场景平台标签的对应关系构建决策树,通过决策树找到这组标签最终对应的场景平台的标签;本发明基于简单道路交通场景环境的道路场景图片和视频,能够有效实现交通场景平台的预测,预测效果较准确,方法简单有效。
-
公开(公告)号:CN110533580A
公开(公告)日:2019-12-03
申请号:CN201910730983.7
申请日:2019-08-08
申请人: 西安交通大学
摘要: 本发明公开了一种基于对抗生成神经网络的图像风格迁移方法,本发明在CycleGAN的基础上增加两个过滤数据集Filter1数据集和过滤数据集Filter2。本发明通过增加包含不需要风格转换图像的过滤数据集Filter1,使其经过生成器保持不变,并增加包含迁移错误图像的过滤数据集Filter2,使其被判别器判别为错误图片的方式解决CycleGAN迁移错误的问题。在调整整体损失函数后用生成式对抗网络进行训练,得到的网络模型用于图像的风格迁移。本发明在保持无监督学习的前提下能够很好的解决CycleGAN中出现的过度迁移、迁移过渡的问题。
-
公开(公告)号:CN117710679A
公开(公告)日:2024-03-15
申请号:CN202311823120.7
申请日:2023-12-27
申请人: 西安交通大学
IPC分类号: G06V10/26 , G06V20/70 , G06V10/82 , G06V10/764 , G06N3/0464 , G06N3/084
摘要: 本发明公开了一种无监督交通要素对齐的道路场景语义分割方法及相关装置,包括以下步骤:获取待分割的交通场景图像;将待分割的交通场景图像输入到利用深度学习模型计算,得到道路场景语义分割结果;所述深度学习模型通过总损失函数训练卷积神经网络获得;总损失函数为第一交叉熵损失函数、第二交叉熵损失函数、动态交通要素对齐损失与静态交通要素对齐损失的结合。本发明通过创新性的将动静态交通要素对齐以及确定总损失函数,将整个图像根据要素特点通过处理分为动态交通要素和静态交通要素,并设计动静态要素对齐损失函数,使无监督的语义分割方法在精度上得到显著提升并且无需标注;提高了分割能力,从而实现道路场景的准确识别。
-
公开(公告)号:CN117709454A
公开(公告)日:2024-03-15
申请号:CN202311823118.X
申请日:2023-12-27
申请人: 西安交通大学
IPC分类号: G06N5/022 , G06N5/04 , G06N3/0455 , G06N3/096 , G06V20/70 , G06V20/00 , G06V10/25 , G06V10/82 , G06V10/774
摘要: 本发明公开了一种基于生成式模板的无偏场景图构造方法、系统和设备,获取待检测的丰富场景下的不同图像;采用深度学习模型提取丰富场景下的不同图像的上下文特征;根据不同图像的上下文特征,通过深度学习模型中的Transformer块推断不同图像中存在的语义信息,不同图像中存在的语义信息包括目标物体的分类和目标之间信度得分;按照置信度得分高低输出图像三元组预测结果;所述深度学习模型为通过Transformer编码器‑解码器网络架构提取图像的视觉上下文特征,进行数据增强后,对深度神经网络进行训练得到的。本发明在公开场景图数据集VG上进行大量的实验证实,可以有效的构造符合图像内容的场景图。
-
公开(公告)号:CN109848996B
公开(公告)日:2020-08-14
申请号:CN201910208867.9
申请日:2019-03-19
申请人: 西安交通大学
IPC分类号: B25J9/16
摘要: 本发明提供一种基于图优化理论的大规模三维环境地图创建方法。该方法首先利用裁剪迭代最近点算法顺序地估计移动机器人的局部位姿,并判断估计结果的可靠性,如果结果不可靠,则采用快速的基于多尺度描述子对应传播算法重新估计当前时刻移动机器人的局部位姿,同时逐渐地构造一个位姿图,图的顶点表示移动机器人各时刻的位姿,图的边表示相连位姿之间的约束;随后提出了一种闭环假设和验证方法,用来检测位姿图中的闭环;最后通过运动平均方法求解位姿约束方程,得到精确的移动机器人的全局位姿。实验结果表明该方法可以很好地创建大规模三维环境地图。
-
公开(公告)号:CN104021525B
公开(公告)日:2017-02-08
申请号:CN201410239942.5
申请日:2014-05-30
申请人: 西安交通大学
摘要: 一种道路场景视频图像序列的背景修复方法,首先计算当前帧到邻近帧的光流图,然后基于高斯过程回归计算缺失光流图区域中的散点,用于光流预测的初始化;经过光流预测初始化,再使用三层BP神经网络实现逐列光流预测;然后进行图像修复,在图像修复阶段,利用光流初始化和光流预测将当前帧缺失区域内像素对应到邻近帧背景区域,利用高斯混合模型实现图像修复;本发明针对运动背景条件下的视频图像序列,基于光流信息实现当前帧缺失前景区域像素到邻近帧背景像素的对应,有效实现道路场景视频图像序列中缺失运动前景区域的图像修复,方法简单有效。
-
公开(公告)号:CN111652293B
公开(公告)日:2022-04-26
申请号:CN202010432575.6
申请日:2020-05-20
申请人: 西安交通大学苏州研究院
IPC分类号: G06V10/774 , G06V10/80 , G06V10/764 , G06K9/62 , G06N3/04
摘要: 本发明公开了一种多任务联合判别学习的车辆重识别方法。方法通过多分支的网络联合学习多个任务,来获取车辆的细粒度判别性特征。网络通过属性学习和ID学习两个分支获取网络输出特征向量,同时再用一个度量学习和ID学习任务来约束该特征向量,通过这四个任务联合学习来获取更加鲁棒的特征。其中ID学习使用了不同于其他方法的ArcFL损失函数,度量学习使用了不同于其他方法的Trihard损失函数。通过创新性网络结构的提出和损失函数的改进,使车辆重识别和检索的精度得到显著提升。本发明基于道路监控场景的大型车辆数据集实现,可以有效地应用于车辆查找任务。
-
公开(公告)号:CN111652293A
公开(公告)日:2020-09-11
申请号:CN202010432575.6
申请日:2020-05-20
申请人: 西安交通大学苏州研究院
摘要: 本发明公开了一种多任务联合判别学习的车辆重识别方法。方法通过多分支的网络联合学习多个任务,来获取车辆的细粒度判别性特征。网络通过属性学习和ID学习两个分支获取网络输出特征向量,同时再用一个度量学习和ID学习任务来约束该特征向量,通过这四个任务联合学习来获取更加鲁棒的特征。其中ID学习使用了不同于其他方法的ArcFL损失函数,度量学习使用了不同于其他方法的Trihard损失函数。通过创新性网络结构的提出和损失函数的改进,使车辆重识别和检索的精度得到显著提升。本发明基于道路监控场景的大型车辆数据集实现,可以有效地应用于车辆查找任务。
-
-
-
-
-
-
-
-
-