-
公开(公告)号:CN103149131A
公开(公告)日:2013-06-12
申请号:CN201310039013.5
申请日:2013-01-31
Applicant: 长安大学
IPC: G01N15/02
Abstract: 本发明公开了生产现场集料三维检测的实时数据采集方法及采集系统,集料传送装置包括进料仓、一级传动带、分料板和总传动带,分料板下方设二级传送带,安装数据获取装置,数据获取装置包括封装在防尘箱中的激光器和面阵相机,防尘箱安装在二级传送带上方,激光器正对二级传送带,第一编码器安装在二级传送带转轴上,第二编码器安装在防尘稳固箱上且与面阵相机相连,所述激光器、面阵相机、第一编码器和第二编码器分别连接计算机;计算机控制二级传送带传送速度和面阵相机采样频率。本发明能够直接获取集料的三维数据信息,极大地提高了集料级配的计算精度;对拍摄过程中集料的下落速度进行控制,解决集料下落速度不均匀的问题。
-
公开(公告)号:CN102635056A
公开(公告)日:2012-08-15
申请号:CN201210096155.0
申请日:2012-04-01
Applicant: 长安大学
Abstract: 本发明公开了一种沥青路面构造深度测量方法:打开计算机、UPS电源、激光器、编码器和相机;对相机标定;推动手推车在待测路面上前进,编码器实时向计算机发出脉冲信号,激光器发射激光光束;相机接收计算机发送的触发信号采集图像并发送给计算机;计算机对接收到的每副图像依次进行图像去噪,再对每副图像通过阈值重心法逐列进行质心提取,将每一列的质心的坐标值与该副图像中其对应的参考基准面相应列的高度坐标值相减得到差值,再通过公式1计算每副图像每一列所代表的高度值,对所有得到的高度值求取算术平均值得到路面构造深度值。本发明提高了构造深度的测量精度,且操作简单灵活,计算方便。
-
公开(公告)号:CN101793674B
公开(公告)日:2012-03-07
申请号:CN201010126619.9
申请日:2010-03-18
Applicant: 长安大学
Abstract: 本发明提供一种集料级配实时检测的图像采集系统,用于在沥青混合料生产现场进行集料级配实时检测,解决了现有技术无法在沥青混合料生产现场的集料级配环节进行图像的采集,不能实时获取集料级配过程的图像数据的问题。该系统包括冷料仓、一级传送带、拌合楼传送带,混合料经冷料仓落至一级传送带,一级传送带将混合料传送至下方拌合楼传送带并形成集料下落面。
-
公开(公告)号:CN101776566B
公开(公告)日:2011-08-10
申请号:CN201010126620.1
申请日:2010-03-18
Applicant: 长安大学
IPC: G01N15/02
Abstract: 本发明提供一种基于数字图像的集料级配实时检测方法,涉及沥青混合料生产质量的检测。该方法主要包括:1)下落状态集料图像的采集;2)对步骤1)采集到的下落状态集料图像进行实时分析、处理;3)获取检测结果。主要解决了现有技术中仅仅对集料级配后的结果进行抽样检测分析,无法在沥青混合料拌合时的集料级配环节进行检测,不能实时对集料级配过程产生影响。本发明具有检测精度高,根据检测结果可更改集料的配比等优点;主要应用于沥青混合料在生产现场进行集料级配实时检测。
-
公开(公告)号:CN101819156A
公开(公告)日:2010-09-01
申请号:CN201010138177.X
申请日:2010-04-02
Applicant: 长安大学
IPC: G01N21/84
Abstract: 本发明公开了一种沥青路面断面图像的采集方法,该方法采用线阵式摄像机对准在承载平台上匀速转动的沥青路面芯样,在设定的光照条件下进行图像采集,从而可以得到较少失真的沥青路面芯样的断面图像,包括搭建沥青路面芯样承载平台,设置图像采集部件,放置待采集的沥青路面芯样于承载圆盘,当沥青路面芯样匀速转动后,触发采集信号采集并存储沥青混合料断面图像。并存储在计算机中以备后续的处理,消除了采用数码相机从不同角度拍摄并进行拼接所引起的失真,是一种可以替代当前沥青路面芯样图像采集的方法。采用本发明的方法,可以为后续的基于图像分析检测沥青混合料组成的过程中提高检测精度。
-
公开(公告)号:CN119399168B
公开(公告)日:2025-05-13
申请号:CN202411521939.2
申请日:2024-10-29
Applicant: 长安大学
IPC: G06T7/00 , G06V10/80 , G06V10/764 , G06V10/48 , G06V10/52 , G06V10/26 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明提供一种三维多视图成像下的路面结构层病害标注方法及装置,涉及计算机图像识别技术领域。包括:将水平面视图和纵断面视图拼接,得到跨视图的二维图像;构建包含多个多层次特征融合网络和空间金字塔池化层的水平面‑纵断面特征关联标注模型;利用训练集对该模型得到训练好的特征关联标注模型。这样,通过训练好的水平面‑纵断面特征关联标注模型对病害进行自动化标注,减少人工标注的时间,提高病害标注的效率;利用跨视图的二维图像,考虑相邻水平面视图和纵断面视图间的相似病害特征关联信息,优化该模型的标注性能,且通过训练好的水平面‑纵断面特征关联标注模型对病害进行自动化标注,减少误标和漏标,提高病害标注的准确性。
-
公开(公告)号:CN119579993A
公开(公告)日:2025-03-07
申请号:CN202411710159.2
申请日:2024-11-27
Applicant: 长安大学
IPC: G06V10/764 , G06V10/74 , G06V10/40 , G06V10/77 , G06V10/80 , G06T17/00 , G06T7/11 , G06T7/136 , G06T3/06 , G06N3/042 , G06N3/0464 , G01N15/02
Abstract: 本发明公开了一种基于三维多视图的集料粒径预测方法,通过从集料的三维点云数据中生成多视图投影,结合深度学习技术对多视图信息进行融合和处理,从而实现更高精度和更稳定的粒径分类;本发明不仅能有效弥补二维单视图方法的不足,还能充分利用三维数据的优势,有效降低集料多视图信息获取的复杂性和视点依赖性,保证了工业环境中复杂光照和环境条件下信息的一致性和准确性。
-
公开(公告)号:CN119399168A
公开(公告)日:2025-02-07
申请号:CN202411521939.2
申请日:2024-10-29
Applicant: 长安大学
IPC: G06T7/00 , G06V10/80 , G06V10/764 , G06V10/48 , G06V10/52 , G06V10/26 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明提供一种三维多视图成像下的路面结构层病害标注方法及装置,涉及计算机图像识别技术领域。包括:将水平面视图和纵断面视图拼接,得到跨视图的二维图像;构建包含多个多层次特征融合网络和空间金字塔池化层的水平面‑纵断面特征关联标注模型;利用训练集对该模型得到训练好的特征关联标注模型。这样,通过训练好的水平面‑纵断面特征关联标注模型对病害进行自动化标注,减少人工标注的时间,提高病害标注的效率;利用跨视图的二维图像,考虑相邻水平面视图和纵断面视图间的相似病害特征关联信息,优化该模型的标注性能,且通过训练好的水平面‑纵断面特征关联标注模型对病害进行自动化标注,减少误标和漏标,提高病害标注的准确性。
-
公开(公告)号:CN114898329B
公开(公告)日:2025-01-10
申请号:CN202210333395.1
申请日:2022-03-31
Applicant: 长安大学
IPC: G06V20/58 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于路面感知数据智能分类的加载车行驶纠偏方法和系统,所述方法包括:获取来自足尺路面上多个高频传感器的待分类数据;根据足尺路面不同高频传感器数据特征构建自适应阈值,对处于加载过程中的传感器数据进行提取;将获得的多个压力感知数据片段进行可视化转换,获得对应的待分类图像数据;构建DCNN6卷积神经网络并对卷积神经网络进行训练;利用经训练的卷积神经网络模型获得待分类图像数据的分类结果;利用所述分类结果对车辆的驾驶轨迹进行提示。本发明可以有效解决足尺环道中的动态高频传感器数据自动分类问题,为全路域受力分析和把握车辙演变规律提供有力的数据支撑,且分类速度快、精度高,节省人力物力。
-
公开(公告)号:CN111882114B
公开(公告)日:2023-10-31
申请号:CN202010628317.5
申请日:2020-07-01
Applicant: 长安大学
IPC: G06Q10/04 , G06Q50/26 , G06F18/23213 , G06N3/0442 , G08G1/01
Abstract: 本发明公开了一种短时交通流量预测模型构建方法及预测方法,针对一段时间内的交通流量数据进行聚类,充分提取数据信息输入到GRU神经网络,以短时交通流量模式类别作为输出,对GRU神经网络模型进行训练,训练完成后得到短时交通流量预测模型,实现对短时交通流量的预测。针对神经网络的训练集选取对短时交通流量的预测结果影响显著,采用K‑Means聚类算法将历史短时交通流量数据进行聚类,有针对性地进行预测,提高了预测结果的准确度。
-
-
-
-
-
-
-
-
-