-
公开(公告)号:CN119494542B
公开(公告)日:2025-05-02
申请号:CN202510052388.8
申请日:2025-01-14
Applicant: 北京科技大学 , 北京城建勘测设计研究院有限责任公司 , 北京城建集团有限责任公司 , 中国地质大学(北京) , 北京工业大学
IPC: G06Q10/0635 , G06N20/00 , G06Q10/067 , G06Q50/08
Abstract: 一种地铁隧道结构服役性能分析方法及装置,该方法基于物理实验与数值模拟构建预测模型的数据库,利用可解释性机器学习方法确定影响隧道结构服役过程的主要因素,并通过与物理方程的耦合实现了小样本条件下对隧道结构服役性能地准确评价,规避了现有机器学习方法中在小样本条件下预测精度不高“黑盒”的特性;本发明构建的隧道结构服役性能预测模型,能够从客观地角度对地铁服役性能(安全性能)进行定性地评价,从而对衬砌结构服役状态的监测、评价与预警,在“监测‑分析‑评估‑预警‑处置‑决策”的评价框架下,识别和处理当前结构存在的问题,为隧道安全和持续服役提供坚实的技术保障。
-
公开(公告)号:CN113536412A
公开(公告)日:2021-10-22
申请号:CN202010292558.7
申请日:2020-04-14
Applicant: 北京城建勘测设计研究院有限责任公司
Abstract: 本发明涉及一种基于BIM和GIS的三维实景模型高精度融合方法。基于BIM和GIS的三维实景模型高精度融合方法:首先,基于GIS数据生成三维实景模型;其次,基于具体工程要素建立三维BIM模型;第三,将三维BIM模型的工程坐标转换为地理坐标;然后,基于转换到地理坐标系下的BIM模型,得出BIM模型的校正偏移;再者,基于BIM模型的校正偏移,修正BIM模型的位置;最后,将位置修正后的三维BIM模型与GIS三维实景模型进行拼凑组合。通过本发明能够极大的降低融合后BIM模型与实际位置的偏差,满足工程对精度要求。
-
公开(公告)号:CN119666983A
公开(公告)日:2025-03-21
申请号:CN202411943759.3
申请日:2024-12-27
Applicant: 北京城建勘测设计研究院有限责任公司 , 北京城建集团有限责任公司 , 北京工业大学
Abstract: 本发明涉及一种检测地铁盾构隧道壁后空洞的方法与系统,属于空洞检测技术领域,其中该方法,包括:在地铁隧道的管片上用记号笔标记所需要检测的点位;用回弹仪对点位进行击打,并使用加速度传感器采集该点位的振动信号;对每个点位的振动信号进行去噪处理得到去噪后的振动信号;对去噪后的振动信号进行时域转换,获得对应振动信号的频率域信号;基于去噪后振动信号的时域信号和所述频率域信号完成地铁盾构隧道壁后空洞的检测。本发明通过对采集到的数据进行去噪处理及频率域分析,可以有效地提高空洞检测结果的准确性,减少误判的可能性。
-
公开(公告)号:CN119863456A
公开(公告)日:2025-04-22
申请号:CN202510336087.8
申请日:2025-03-21
Applicant: 北京城建勘测设计研究院有限责任公司 , 武汉大学 , 北京工业大学
Abstract: 本发明涉及一种地铁隧道结构病害类型预测方法与系统,包括:采集地铁隧道的红外图像;对所述地铁隧道红外图像进行多尺度增强得到特征增强后的地铁隧道红外图像;对每个特征增强后的地铁隧道红外图像所呈现的病害类型进行标定得到训练样本;将训练样本输入到MobileNet模型中进行训练得到地铁隧道病害类型预测模型;使用所述地铁隧道病害类型预测模型对目标地铁隧道进行监测。本发明通过对红外图像进行多尺度增强,可以提高病害特征的可辨识性,使得不同类型的病害在图像中更为明显,提升模型训练的效果。
-
公开(公告)号:CN119762544A
公开(公告)日:2025-04-04
申请号:CN202510265983.X
申请日:2025-03-07
Applicant: 北京城建勘测设计研究院有限责任公司 , 武汉大学 , 北京工业大学
Abstract: 本发明涉及一种地铁隧道结构安全预测方法与系统,包括:对激光点云数据进行校正处理得到校正后的激光点云数据;采集地铁隧道上的图像数据;提取出图像数据上的特征点;将图像数据上的特征点与校正后的激光点云数据上的激光点进行配准得到配准后的激光点云数据;当配准后的激光点云数据的值不在预设范围时,则发出警报。本发明通过激光点云和图像数据的实时采集与处理,能够快速识别和分析隧道的结构变化,及时发现潜在安全隐患。
-
公开(公告)号:CN114419421A
公开(公告)日:2022-04-29
申请号:CN202210073070.4
申请日:2022-01-21
Applicant: 中国地质大学(北京) , 北京城建勘测设计研究院有限责任公司 , 中国安全生产科学研究院
Abstract: 本发明提供了一种基于影像的地铁隧道裂缝识别系统及方法,通过自拱型组合阵列CCD相机获取的数据,获得隧道影像,并且利用深度学习算法改进的U‑Net算法对隧道面进行智能提取和检测,可以提取出地隧道裂缝病害,并在分类的基础上,对裂缝病害进行相对定位,方便检修人员直接前往故障路段进行修理,减少工作人员搜寻病害时的二次时间成本。本发明能够满足地铁盾构隧道高速、高精度的裂缝病害检测及定位要求,处理速度快,实用价值高。
-
公开(公告)号:CN119494542A
公开(公告)日:2025-02-21
申请号:CN202510052388.8
申请日:2025-01-14
Applicant: 北京科技大学 , 北京城建勘测设计研究院有限责任公司 , 北京城建集团有限责任公司 , 中国地质大学(北京) , 北京工业大学
IPC: G06Q10/0635 , G06N20/00 , G06Q10/067 , G06Q50/08
Abstract: 一种地铁隧道结构服役性能分析方法及装置,该方法基于物理实验与数值模拟构建预测模型的数据库,利用可解释性机器学习方法确定影响隧道结构服役过程的主要因素,并通过与物理方程的耦合实现了小样本条件下对隧道结构服役性能地准确评价,规避了现有机器学习方法中在小样本条件下预测精度不高“黑盒”的特性;本发明构建的隧道结构服役性能预测模型,能够从客观地角度对地铁服役性能(安全性能)进行定性地评价,从而对衬砌结构服役状态的监测、评价与预警,在“监测‑分析‑评估‑预警‑处置‑决策”的评价框架下,识别和处理当前结构存在的问题,为隧道安全和持续服役提供坚实的技术保障。
-
公开(公告)号:CN119323598A
公开(公告)日:2025-01-17
申请号:CN202411417796.0
申请日:2024-10-11
Applicant: 北京城建集团有限责任公司 , 北京工业大学 , 北京城建勘测设计研究院有限责任公司
Abstract: 本发明提供一种地铁盾构隧道裂缝分割测量方法及系统,涉及深度学习技术领域。基于改进的YOLOv8‑GSD模型对地铁盾构隧道图像进行裂缝分割,并引入伽马矫正与RCLAHE理论结合的方法精确测量裂缝宽度、长度信息。所述方法包括:采集包含裂缝的地铁盾构隧道图像;基于改进的YOLOv8‑GSD模型对采集的地铁盾构隧道图像进行裂缝分割,形成地铁隧道裂缝图像;对地铁隧道裂缝图像进行图像预处理;对图像预处理后的地铁隧道裂缝图像,根据多种子区域生长方法提取裂缝区域,对裂缝区域通过细化算法提取裂缝骨架;基于裂缝骨架,根据像素连接方式计算裂缝长度和裂缝宽度。所述一种地铁盾构隧道裂缝分割测量系统应用于一种地铁盾构隧道裂缝分割测量方法。
-
公开(公告)号:CN114511014A
公开(公告)日:2022-05-17
申请号:CN202210071582.7
申请日:2022-01-21
Applicant: 北京城建勘测设计研究院有限责任公司
IPC: G06K9/62 , G06N3/08 , G06T3/40 , G06T5/00 , G06V10/774 , G06V10/764
Abstract: 本发明公开了一种基于图像深度学习算法的地铁隧道渗漏水检测系统及方法,包括数据采集模块、数据预处理模块,影像拼接模块,神经网络数据集构建模块;通过8‑阵列CCD相机,采用同步控制装置,同时对地铁隧道壁进行拼接成像。本发明采用VGG16网络对拼接后的图像渗漏水病害位置作为训练集进行预训练,使用cascade R‑CNN网络来增加系统的可靠性和效率,最终能够在影像上清晰地标记出病害的位置,并通过检测框判别方法得到病害的类型,结合每次成像时,数据采集系统记录的系统位置,实现隧道病害的全自动采集、定位,代替传统人工采集方法,实现高效隧道渗漏水病害识别、定位。
-
公开(公告)号:CN113989255A
公开(公告)日:2022-01-28
申请号:CN202111302935.1
申请日:2021-11-05
Applicant: 中国地质大学(北京) , 北京城建勘测设计研究院有限责任公司
Abstract: 本发明提供基于Mask‑RCNN的地铁隧道衬砌脱落识别模型训练方法和识别方法,包括模型的训练方法和识别方法;对模型标签标注和特征提取模块进行适应性改进的算法,以特征更为明显的三维激光点云深度图为实验对象,结合残差神经网络,对目标分割算法掩码‑区域卷积神经网络进行模型训练,用训练好的模型对点云深度图进行识别,实现根据隧道全断面深度图数据进行衬砌掉落区域的自动化识别提取。该方法可以解决现阶段衬砌掉落区域识别效率低、精度差的关键问题,保证最后的识别率达到95%,识别效果显著。
-
-
-
-
-
-
-
-
-