-
公开(公告)号:CN118038094A
公开(公告)日:2024-05-14
申请号:CN202410099691.9
申请日:2024-01-24
Applicant: 电子科技大学 , 喀什地区电子信息产业技术研究院
Abstract: 本发明公开了一种面向动态场景的即时定位与建图方法、系统、存储介质及终端,属于视觉定位领域,包括:在ORB‑SLAM2框架中通过滑动窗口和模板匹配的方式检测当前图像帧中物体的运动状态,筛选出动态物体和静态物体;剔除动态物体上的特征点,保留静态物体上的特征点;将当前帧图像中的静态物体与地图中已构建的物体进行匹配,并根据匹配结果实时更新数据库;其中,若当前静态物体是新物体,则直接添加到数据库中;若当前静态物体不是新物体,则通过静态物体语义约束算法将其与数据库中同类物体进行匹配。本发明充分利用了静态物体的语义信息,能够获取精准的物体信息,实现对动态场景的即时响应和实时更新。同时,不依赖先验知识的特点,扩展了SLAM系统的通用性。
-
公开(公告)号:CN119169086A
公开(公告)日:2024-12-20
申请号:CN202410469578.5
申请日:2024-04-18
Applicant: 电子科技大学 , 喀什地区电子信息产业技术研究院
Abstract: 本发明公开了一种面向动态场景的双目视觉SLAM方法、电子设备和存储介质,针对从双目相机获取的当前帧图像和先前帧图像,所述方法包括以下步骤:获取所述当前帧图像和所述先前帧图像;分别提取当前帧图像的静态特征点和动态特征点、先前帧图像的静态特征点和动态特征点;得到当前帧图像和先前帧图像的位姿;连续跟踪关联物体;输出当前帧图像中所有物体的运动状态;根据当前帧图像中所有物体的运动状态,进行特征点的重过滤;基于更新特征点后的当前帧图像进行定位和建图。本发明充分利用了相机获得的有效信息,能够实现在动态场景下的相机位姿的准确估计和地图建立,具有较强的鲁棒性和稳定性。
-
公开(公告)号:CN118485069A
公开(公告)日:2024-08-13
申请号:CN202410504783.0
申请日:2024-04-25
Applicant: 喀什地区电子信息产业技术研究院
IPC: G06F40/284 , G06N3/0464 , G06N3/0455 , G06F18/10 , G06F18/25 , G06F18/2433 , G06F40/289 , G06F40/30
Abstract: 本发明公开了一种基于Transformer和CNN的敏感词检测方法,解决传统的Transformer不能为长距离相关文本信息生成自适应权重,局部语义提取能力不足,在敏感词汇检测中词性理解能力不足的问题,包括:对待检测文本进行数据清洗、文本过滤、分词得到词语;使用 对词语进行填充,然后使用Word2Vec将单词映射到一个向量空间中的Word embeddings;生成每个单词的Position embeddings和Segment embeddings;将得到的三种embeddings分别相加作为Transformer网络的输入、相拼接作为CNN网络的输入进行处理;将Switchable Normalization的输出和最大池化的输出相加进行融合得到融合特征;将融合特征通过全连接层进行信息整合,送入Dropout层进行信息筛选,以0.5倍的权重与Dropout层的输出相加;最后再通过一个全连接层和Softmax进行二分类判别。
-
公开(公告)号:CN118479320A
公开(公告)日:2024-08-13
申请号:CN202410467700.5
申请日:2024-04-18
Applicant: 喀什地区电子信息产业技术研究院
Abstract: 本发明公开了一种电梯安全监管方法,采用电梯安全监控系统实现,包括:电梯安全监控系统的硬件感知层通过传感器和摄像头实时采集电梯的运行数据;摄像头将帧数据传入电梯安全监控系统的机器视觉主板;终端APP收集维保人员的人脸识别信息、定位信息与维保相关信息;硬件感知层感知到的数据与终端APP收集到的数据传入电梯安全监控系统的数据层进行数据分类;分类后的数据将传入到电梯安全监控系统的支撑层进行进一步的处理;支撑层将经过初步整理的数据传输给电梯安全监控系统的服务层进行服务;经服务层选定的服务处理后的数据将传输至电梯安全监控系统的应用层中进行监管;将应用层内的数据传输至电梯安全监控系统的展示层上进行可视化展示。
-
公开(公告)号:CN117132636A
公开(公告)日:2023-11-28
申请号:CN202311086575.5
申请日:2023-08-25
Applicant: 电子科技大学 , 喀什地区电子信息产业技术研究院
IPC: G06T7/55 , G06T7/80 , G06T7/73 , G06N3/0464 , G06N3/048 , G06N3/08 , G01S11/12 , G01B11/26 , G01B11/14
Abstract: 本发明公开了基于深度学习和模板匹配的双目摄像头测距方法及终端,属于扫地机器人技术领域,包括:将双目摄像头采集的对应两幅图像进行极线约束处理;对其中一摄像头采集的图像进行目标检测处理,得到目标框,并作为模板;以另一摄像头采集的图像为目标图,基于目标框位置范围在目标图中水平搜索模板,得到模板在目标图的位置,并计算视差;将视差转为三维坐标,得到目标物体的距离信息、角度信息。基于极线约束的作用,对模板的搜索范围能够被限制在同一极线上,使搜索范围由全局变为局部,大大提高了图像处理速度,能够满足实时性检测要求;模板匹配过程中考虑的是物体整体信息,能有效避免缺失特征点的问题,不会出现漏检的问题。
-
公开(公告)号:CN117132620A
公开(公告)日:2023-11-28
申请号:CN202311089704.6
申请日:2023-08-28
Applicant: 电子科技大学 , 喀什地区电子信息产业技术研究院
IPC: G06T7/246
Abstract: 本发明公开了一种自动驾驶场景的多目标跟踪方法、系统、存储介质及终端,属于自动驾驶领域,包括:对每一帧输入图像进行三维目标检测;将当前的所有三维目标框投影至鸟瞰图,得到检测框;判断历史生成的物体对象是否在视野范围内,将在视野范围内的物体投影至鸟瞰图,得到目标框;计算所述检测框与目标框的交并比;根据所述交并比的计算结果判断物体是否被成功跟踪;剔除被成功跟踪的动态物体内的特征点。本发明将三维目标检测结果投影至鸟瞰图中,建立当前检测物体与历史生成物体的匹配关系,并根据该匹配关系跟踪多目标,同时剔除动态框内特征点,不受动态物体的的干扰,估计准确。
-
-
-
-
-