-
公开(公告)号:CN107315998A
公开(公告)日:2017-11-03
申请号:CN201710396082.X
申请日:2017-05-31
Applicant: 淮阴工学院
CPC classification number: G06K9/00785 , G06K9/4633 , G06K9/6267 , G06K2209/23 , G06T7/254 , G06T2207/10016 , G06T2207/30232 , G06T2207/30236
Abstract: 本发明公开了一种基于车道线的车辆种类划分方法和系统,方法包括:基于霍夫变换从道路监测视频图像中提取道路两侧的左右两车道线;基于Vibe背景差分算法获取视频图像中的前景目标并对前景目标进行孔洞移除和平滑处理;以车道线为参考系计算目标的实际宽度,将目标的实际宽度导入以车辆宽度作为分类标准的车辆分类器中,得到目标的车辆类型;对分类结果进行误差修正,排除行驶轨迹不为直线的目标的分类结果。与现有技术相比,本发明方法没有复杂的数学计算,基于平面几何学,实时性与准确度良好,可以十分方便的应用到基于视频的交通研究中。
-
公开(公告)号:CN105094459A
公开(公告)日:2015-11-25
申请号:CN201510121998.5
申请日:2015-03-20
Applicant: 淮阴工学院
IPC: G06F3/042
Abstract: 本发明公开一种基于多光学成像的大尺寸多点触摸定位系统,所述方法包括:首先根据光学摄像头性质将整个触摸面板分为若干区域,并将每个区域采用三组角度组合进行限制,通过这种区域分割可以有效消除多点触摸定位时一半左右的无效组合“鬼点”;然后根据各区域距离光学成像设备的距离,设置各区域面积阈值,通过设置该阈值有效消除部分触摸“鬼点”;最后采用剩余各点与各光学设备成像角度进行匹配的方法进一步消除可能的触摸点,并且通过这种匹配能判断出各触摸点在那些光学设备中被遮挡,从而可以有效利用未遮挡的光学设备进行三角定位。本发明能在多光学设备多点触摸应用中进行精确定位,并能有效消除由于多点触摸与多点成像说引入的“鬼点”问题。
-
公开(公告)号:CN118469079B
公开(公告)日:2025-01-21
申请号:CN202410607726.5
申请日:2024-05-16
Applicant: 淮阴工学院
IPC: G06Q10/04 , G06Q50/40 , G06N3/0464 , G06N3/0442 , G06N3/045 , G06F18/25 , G06F17/16 , G06N3/0499
Abstract: 本发明公开了一种基于DCG及双分支并行的地铁客流量预测方法及装置,所述方法包括:首先,构建地铁通行网络,其中节点表示站台点,节点所连边表示站台间的到达关系;其次,通过地铁通行网络和实体测量数据构建包括深度关系矩阵、旅行距离权重矩阵和乘客流量权重矩阵融合的DCG模块;最后,将DCG模块编码送入SBULSTM模块与Transformer模块双分支并行的预测神经网络。本发明通过DCG模块,还原地铁网络的实际拓扑结构,捕捉由站点到站线的客流特征;同时,并行SBULSTM模块与Transformer模块既能考虑时间序列的前后向状态,又能够学习复杂的时间特征、捕捉DCG所提供全局空间上的客流信息,加强全局时空通道的交互以减少信息的损失,提高了综合时空预测的能力。
-
公开(公告)号:CN115342805B
公开(公告)日:2024-11-19
申请号:CN202210733489.8
申请日:2022-06-27
Applicant: 淮阴工学院
Abstract: 本发明提供了一种高精度机器人定位导航方法及系统,高精度机器人定位导航系统由机器人底盘以及地面辅助装置组成。机器人底盘包括机器人控制系统、移动通信模块以及定位导航系统。定位导航系统由前后相机以及惯性传感器组成,相机获取地面辅助装置的信息,惯性传感器获取机器人的位置信息。前后相机同时循线,纠正机器人的左右行驶偏差;在地面辅助装置中的位置校正标识点处,机器人进行视觉‑惯性信息融合,校准机器人的位置。本发明即通过前后相机同时循线,纠正左右偏差,在有位置校正标识点时,进行视觉‑惯性信息融合,校准机器人的位置,提高机器人的定位精度。
-
公开(公告)号:CN118939152A
公开(公告)日:2024-11-12
申请号:CN202411150020.7
申请日:2024-08-21
Applicant: 淮阴工学院
IPC: G06F3/04815 , G09B9/00 , G09B15/00 , A63H33/30 , A63H5/00 , G06F3/0488
Abstract: 本发明公开了一种结合音乐互动引导和模拟美食制作的儿童启蒙玩具,包括:不同形状的美食玩具,设置在每个所述美食玩具内的传感器模块,以及与传感器模块配合设置的互动设备,传感器模块包括:触摸传感器、温度传感器以及压力传感器;互动设备与所述传感器模块通过无线通信连接,且互动设备包括语音采集模块、信息上传模块、数据处理模块、模式选择模块、音乐播放模块、控制模块以及反馈模块;通过评分系统S的对触摸速度和压力变化率特征评估,通过加权和的方式量化儿童的感官能力,根据评分结果提供个性化的建议和指导,帮助儿童发现和提高自己的感官能力水平,为他们的成长提供有针对性的帮助。
-
公开(公告)号:CN118227795A
公开(公告)日:2024-06-21
申请号:CN202410437957.6
申请日:2024-04-11
Applicant: 淮阴工学院
IPC: G06F16/35 , G06F18/214 , G06F18/2431 , G06F40/30 , G06N3/0464
Abstract: 本发明涉及一种基于知识蒸馏的双重先验文本分类方法,首先文本样本进行清洗和预处理,制作领域字典。通过人工获取可信度较高先验知识,再通过对比学习扩充人工标注,得出Ar标签损失;另一方面,使用了LGTMX—R模块,利用知识蒸馏进行损失计算Loss,再用其反馈到学生模型中,提高其在验证集上泛化性;接着两个不同的标签损失的基础上,使用动态加权,使得标签损失经过多轮计算过后更具鲁棒性,得到最优损失;最后在输出层对语义信息进行分类。本发明知识蒸馏可以更好地减少模型参数,加快模型速率,因此模型分类的性能更加健壮,并且双重先验文本分类模型中的特征提取得到更好地加强,能够有效提高模型性能。
-
公开(公告)号:CN115457518B
公开(公告)日:2024-01-26
申请号:CN202211045364.2
申请日:2022-08-30
Applicant: 淮阴工学院
Abstract: 本发明公开了一种基于姿态感知与几何约束下的驾驶员行为识别方法及系统,首先,采用HRNet对图片中的驾驶员进行姿态估计,获取驾驶员的关节点信息;其次,将视频输入到ResNet50中获取全局特征图,利用关节点的位置获取各个关节点相关的视觉特征;然后,对驾驶员的上半身人体关节点进行解构,同时根据各点的坐标位置获取几何特征;最后,将视觉表观特征与几何特征融合,通过线性层预测相应的行为。本发明克服了传统驾驶员行为检测方法检测准确率低、检测手段单一的问题,大幅提升了在背景复杂、光照变化、视角不一和驾驶员体态变化等情况下的检测能力;同时能够应对复杂环境(56)对比文件CN 107358149 A,2017.11.17CN 113269111 A,2021.08.17CN 107392131 A,2017.11.24CN 110059598 A,2019.07.26CN 113486784 A,2021.10.08CN 112784765 A,2021.05.11CN 112507990 A,2021.03.16CN 113989927 A,2022.01.28刘倩等.基于图像的动作识别与评价方法.《微处理机》.2022,(第5期),第44-48页.L. Song et al.Action Recognition inVideo Using Human Keypoint Detection.《ICCSE》.2022,第465-470页.赵雄.基于深度学习的驾乘人员异常行为识别算法研究《.中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》.2021,第第2021年卷卷(第第9期期),C035-93.
-
公开(公告)号:CN117292216A
公开(公告)日:2023-12-26
申请号:CN202310400563.9
申请日:2023-04-14
Applicant: 淮阴工学院
IPC: G06V10/774 , G06V10/82 , G06V10/764 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种基于GS_YOLOv7的火灾检测方法,包括改进了模型Backbone与Head部分,引入了Shuffle Attention Module;引入了GSConv模块;在Head层中引入VoVGSCSP module;在训练策略方面,将YOLOv7网络模型CBS模块改进为效率更高的CBF模块;将模型损失函数改为EIoU loss,一张640*640的特征图输入到网络的Backbone层,经过CBF,E‑ELAN以及MP模块后输出三张不同的特征图,将20*20*1024大小的特征图输入到Head层经过VoVGSCSP module中可提高网络的推理速度,特征图经过GSConv模块,模型可以提取更加丰富的语义信息,在特征提取后的非线性激活阶段,Funnel激活函数增强了模型的空间感知能力,引入了EIoU loss使得模型的收敛速度更快。本发明通过优化模型结构,引入新的激活函数和损失函数,提高了模型的效率和泛用性。
-
公开(公告)号:CN117275041A
公开(公告)日:2023-12-22
申请号:CN202311286008.4
申请日:2023-09-28
Applicant: 淮阴工学院
IPC: G06V40/10 , G06V10/44 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/096
Abstract: 本发明公开了一种基于迁移学习和改进YOLOv5电力工人安全帽佩戴检测方法,具体包含以下步骤:构建施工场景下的安全帽佩戴检测数据集A,构建电力作业场景下的安全帽佩戴检测数据集B;改进电力作业场景下安全帽佩戴检测模型YOLOv5,将YOLOv5主干网络替换为基于动态卷积ODConv的ODConv_MobileNetv2主干网络,提取小目标安全帽特征信息效率大幅上升并减少额外的计算量参数;在颈部网络结构中,添加基于跨空间学习的高效多尺度注意力EMA模块,减少参数量的同时提升小目标安全帽佩戴检测的精度;采用一种基于最小点距离的IoU损失MPDIoU作为改进YOLOv5的损失函数,本发明可以提升小样本电力作业场景数据集下的小目标安全帽佩戴检测精度,降低电力作业场景下的安全帽佩戴检测漏检和误检问题。
-
公开(公告)号:CN117095269A
公开(公告)日:2023-11-21
申请号:CN202310932466.4
申请日:2023-07-27
Applicant: 淮阴工学院
Abstract: 本发明公开了一种基于工业机器人抓取的小目标图像处理方法,方法主要将传入的RGB格式利用主干网络MOBA处理图像,主干网络MOBA是一种包括卷积神经网络与自注意力机制的神经网络,将图像处理结果通过计算其反正切函数值并降维,最终得到图像中小目标的抓取区域的衡量分数、小目标相对于建立的坐标区域的坐标位置、相对于90°垂直线的准确偏移角度。方法针对于计算力较小的设备,在网络架构上已经相应地减少了神经网络的计算量、参数量,对于计算力较小的设备适应性强且准确度高,且能够更准确地得到图中小目标所在的坐标位置以及偏移角度。
-
-
-
-
-
-
-
-
-