-
公开(公告)号:CN115063838B
公开(公告)日:2024-08-02
申请号:CN202210679435.8
申请日:2022-06-15
Applicant: 北京市地铁运营有限公司 , 北京市地铁运营有限公司技术创新研究院分公司
IPC: G06V40/10 , G06V10/82 , G06V10/24 , G06N3/0464 , G06N3/08
Abstract: 本申请提供一种鱼眼失真图像的检测方法及系统。本申请基于PyTorch深度学习框架构建YOLOv5深度学习模型,在YOLOv5深度学习模型输出的训练参数[x,y,w,h,c]中增加有角度信息θ,获得六参数输出的旋转框[x,y,w,h,θ,c],并将YOLOv5深度学习模型中Dataloader模块的维度扩展至六维以对旋转框进行六参数读取,获得适用于鱼眼图像的YOLOv5旋转框模型。本申请的模型经训练后能够通过旋转框算法,在模型内部运算过程中通过旋转框克服鱼眼失真图像中的畸变,兼顾检测精度和检测速度,获得更优检测效果。
-
公开(公告)号:CN116343074A
公开(公告)日:2023-06-27
申请号:CN202211622354.0
申请日:2022-12-16
Applicant: 北京市地铁运营有限公司技术创新研究院分公司
Abstract: 一种基于双向衰减损失的行人跌倒检测方法,首先采集行人图像,然后对行人图像中行人跌倒状态进行检测。对行人图像进行检测是采用行人跌倒检测网络,该检测网络的构建方法为:以YOLOX目标检测网络作为基础网络,在其检测头中加入角度维度来旋转检测框,并使用双向衰减损失函数作为回归损失函数;骨干网络和特征传递结构继续沿用YOLOX的结构;设计所述双向衰减损失函数的方法是先在检测到的人体检测框中,将两个旋转矩形框转换为高斯分布,采用高斯相乘的结果度量旋转角度偏差;再结合向量公式,通过投影向量的长度反映偏移量的偏移距离偏差和偏移角度偏差。本方法的检测效率明显高于现有的检测方法,使行人跌倒的检测具有可实施性。
-
公开(公告)号:CN116128212A
公开(公告)日:2023-05-16
申请号:CN202211656204.1
申请日:2022-12-22
Applicant: 北京市地铁运营有限公司 , 北京市地铁运营有限公司技术创新研究院分公司
IPC: G06Q10/0631 , G06Q10/10 , G06Q50/30
Abstract: 本申请提供一种基于BPMN的城轨车站运营场景编排方法及系统,其在编排画板中调取组件库中的各类组件将其编排形成车站运营过程中的业务场景,然后根据操作者的选择和设置,将相应的组件进行连接,编排形成场景流程,进而在流程模拟器中触发流程引擎进行流程模拟,控制业务场景中各组件按照场景流程执行相应任务逻辑,并进行场景可用性验证和流程优化,最终形成任务流程文件供系统在需要时调用执行。本申请以车站实际业务为基础,通过2级操作方法将构建与配置两种行为分隔开,提升了组件化场景的利用率以及场景动态可变性。组件编排+流程引擎编排场景的方法,提升了车站场景的构建能力,增加了车站场景的韧性,提高了车站的工作效率和安全性。
-
公开(公告)号:CN117173016A
公开(公告)日:2023-12-05
申请号:CN202311019784.8
申请日:2023-08-14
Applicant: 北京市地铁运营有限公司技术创新研究院分公司
IPC: G06T3/40 , G06F16/901
Abstract: 本发明涉及图像恢复技术领域,提出了一种基于参考表的图像超分辨率加速方法及系统,包括获得低分辨率输入图像和参考表;所述参考表包括多条记录,任一条记录包括一一对应的复杂度得分参考值和图像质量参考值;所述一一对应的复杂度得分参考值和图像质量参考值通过对同一样本图像计算复杂度得分和图像质量得到;将所述低分辨率输入图像划分为多个低分辨率图像块;将每一所述低分辨率图像块输入多出口SR网络,得到多个超分图像块;将多个所述超分图像块进行合并,得到高分辨率输出图像。通过上述技术方案,解决了相关技术中的超分辨率加速方法适应性差的问题。
-
公开(公告)号:CN116033240A
公开(公告)日:2023-04-28
申请号:CN202211656171.0
申请日:2022-12-22
Applicant: 北京市地铁运营有限公司 , 北京市地铁运营有限公司技术创新研究院分公司
Abstract: 本申请提供了一种基于车站运营驾驶舱的设备巡视方法及系统,其对车站中各设备的实际布局进行精细的模型构建,而后通过设备拾取技术,确定巡视时各巡视位置的标准设备坐标和朝向。由此,本申请能够通过改变虚拟相机对象在模型三维空间中的位置属性和朝向属性,实现巡视位置移动和视角切换,模拟第一人称视角,进行两点的位置移动,将多个点位连接,根据各点之间先后顺序依次执行相应的巡逻画面,最终形成整条巡视路线。本申请能够有效提高对车站内设备设施的集中可视化控制管理,以车站三维模型空间为载体,将设备状态与实时监控画面结合,通过预设的巡视路线,实现车站运营场景的虚拟设备巡视,从而降低人工巡视频率,提升设备故障识别能力。
-
公开(公告)号:CN115116134A
公开(公告)日:2022-09-27
申请号:CN202210679466.3
申请日:2022-06-15
Applicant: 北京市地铁运营有限公司 , 北京市地铁运营有限公司技术创新研究院分公司
Abstract: 本申请提供一种基于2维和3维CNN的人体行为检测方法及系统。其通过输入模块接收视频帧序列并提取其中关键帧,通过数据增强模块对帧图像进行对输入的帧图像进行样本量扩充,通过二维卷积模型和三维卷积模型分别提取关键帧所含空间特征和视频帧序列所含时空特征,对两者进行特征融合后将融合所获得的最终特征图D经过1×1卷积层生成所需的通道数,并通过损失函数完成最优化处理,得到检测模型。本申请通过格拉姆矩阵Gram构建的人体行为检测模型,能够考虑整个特征图中每个扁平化特征向量的点积以表示各特征向量之间关系,提取通道之间相关性,以强调上下文关系。由此,本申请通过特征融合手段解决了现有的网络模型检测精度较低的问题。
-
公开(公告)号:CN115116134B
公开(公告)日:2024-08-02
申请号:CN202210679466.3
申请日:2022-06-15
Applicant: 北京市地铁运营有限公司 , 北京市地铁运营有限公司技术创新研究院分公司
IPC: G06V40/20 , G06V20/40 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本申请提供一种基于2维和3维CNN的人体行为检测方法及系统。其通过输入模块接收视频帧序列并提取其中关键帧,通过数据增强模块对帧图像进行对输入的帧图像进行样本量扩充,通过二维卷积模型和三维卷积模型分别提取关键帧所含空间特征和视频帧序列所含时空特征,对两者进行特征融合后将融合所获得的最终特征图D经过1×1卷积层生成所需的通道数,并通过损失函数完成最优化处理,得到检测模型。本申请通过格拉姆矩阵Gram构建的人体行为检测模型,能够考虑整个特征图中每个扁平化特征向量的点积以表示各特征向量之间关系,提取通道之间相关性,以强调上下文关系。由此,本申请通过特征融合手段解决了现有的网络模型检测精度较低的问题。
-
公开(公告)号:CN116229199A
公开(公告)日:2023-06-06
申请号:CN202211612259.2
申请日:2022-12-15
Applicant: 北京市地铁运营有限公司技术创新研究院分公司
IPC: G06V10/774 , G06V10/82 , G06N3/08
Abstract: 一种基于模型轻量化的目标检测方法,步骤包括:首先采集图片;再把图片送入目标检测方法模型进行检测;最后得到图片中的目标信息。目标检测方法模型的构建步骤包括:步骤1:处理训练集,将图片数据集格式转化为适合YOLOv5训练的xml格式,并将之划分为训练集和测试集两大部分;步骤2:搭建PyTorch深度学习框架,其中深度学习模型的配置利用YOLOv5算法,步骤包括:步骤3:修改YOLOv5网络;步骤4:训练网络;步骤5:利用训练好的模型进行探测detect操作,从而得到基于模型轻量化的目标检测方法模型。本方法通过多种措施修改YOLOv5网络,使模型轻量化,适于嵌入到芯片上。
-
公开(公告)号:CN115063838A
公开(公告)日:2022-09-16
申请号:CN202210679435.8
申请日:2022-06-15
Applicant: 北京市地铁运营有限公司 , 北京市地铁运营有限公司技术创新研究院分公司
Abstract: 本申请提供一种鱼眼失真图像的检测方法及系统。本申请基于PyTorch深度学习框架构建YOLOv5深度学习模型,在YOLOv5深度学习模型输出的训练参数[x,y,w,h,c]中增加有角度信息θ,获得六参数输出的旋转框[x,y,w,h,θ,c],并将YOLOv5深度学习模型中Dataloader模块的维度扩展至六维以对旋转框进行六参数读取,获得适用于鱼眼图像的YOLOv5旋转框模型。本申请的模型经训练后能够通过旋转框算法,在模型内部运算过程中通过旋转框克服鱼眼失真图像中的畸变,兼顾检测精度和检测速度,获得更优检测效果。
-
公开(公告)号:CN116152913A
公开(公告)日:2023-05-23
申请号:CN202211622363.X
申请日:2022-12-16
Applicant: 北京市地铁运营有限公司技术创新研究院分公司
IPC: G06V40/20 , G06V10/46 , G06V10/82 , G06N3/08 , G06N3/0464
Abstract: 一种基于骨骼关键点和卷积神经网络的动作识别方法,首先采集视频;然后提取每帧图像中每个人的二维姿态关键点坐标,进行热图堆叠,得到三维热图;最后采用改进的slowonly网络处理三维热图。改进的slowonly网络的是去除原始slowonly网络中前期下采样操作,改进原始slowonly网络中的时间卷积模块;改进原始slowonly网络中的通道注意力机制。经改进的slowonly网络处理得到的输出结果即为识别后的结果。本方法在不引入额外参数的情况下,降低了遮挡问题对识别精度的影响,在复杂监控场景下有一定的应用价值。
-
-
-
-
-
-
-
-
-