-
公开(公告)号:CN119848277A
公开(公告)日:2025-04-18
申请号:CN202411861774.3
申请日:2024-12-17
Applicant: 西安电子科技大学广州研究院
IPC: G06F16/535 , G06F16/538 , G06F16/583 , G06F40/30 , G10L15/26
Abstract: 本申请涉及视觉定位技术领域,公开了一种基于意图识别的结构化视觉定位方法、系统及设备,包括:获取待定位图像和用户的当前语音指令;将所述当前语音指令输入预先训练好的意图识别模型进行语义结构化处理,以构建语义拓扑图;其中,所述语义拓扑图用于描述所述当前语音指令对应的目标结构化数据;基于所述语义拓扑图进行推理,得到所述当前语音指令对应的语义指代;对所述语义指代和所述待定位图像进行特征对齐,以在所述待定位图像中定位与所述语义指代匹配的目标对象。本申请通过对语音指令的语义结构化处理,能够对含有口语化语言指令的语义进行精准推理,从而大大提高了视觉定位系统的鲁棒性,有利于提高日常对话场景中的视觉定位效果。
-
公开(公告)号:CN118821718A
公开(公告)日:2024-10-22
申请号:CN202410650825.1
申请日:2024-05-24
Applicant: 西安电子科技大学广州研究院
IPC: G06F40/126 , G10L15/26 , G06N5/022 , G06N5/02 , G06F18/25 , G06V10/40 , G06V10/25 , G06V40/10 , G06V40/20 , G06V20/70 , G06F40/30 , G06F16/35 , G06N3/042 , G06N3/0464
Abstract: 本发明公开了一种基于知识图谱的语义通信方法、系统、设备及介质,所述方法包括:获取多模态信源信息,并对多模态信源信息进行初步特征提取,得到对应的语义信息;根据语义信息,更新上一次通信时的第一知识图谱,得到更新后的第二知识图谱;其中知识图谱具有多个层级;将第二知识图谱输入图编码器进行语义特征提取,获得第二知识图谱中更新的子图所对应的语义特征;将语义特征传输至信宿端,以使信宿端对语义特征进行解码,更新信宿端中的知识图谱,并根据更新后的知识图谱进行语义重构,得到目标信息。本发明将多模态信源信息融合成知识图谱,只传输发生变化的子图信息,减少了大量的传输带宽,提高了传输效率,也提高了信息传输的安全性。
-
公开(公告)号:CN118483996A
公开(公告)日:2024-08-13
申请号:CN202410513206.8
申请日:2024-04-26
Applicant: 西安电子科技大学广州研究院 , 琶洲实验室(黄埔)
IPC: G05D1/43 , G05D1/242 , G05D1/243 , G05D1/246 , G05D1/633 , G05D1/644 , G05D1/247 , G05D1/648 , G05D109/10
Abstract: 本发明公开了一种机器人自主导航方法、装置、设备及存储介质,方法包括:获取激光雷达数据,并进行同步定位与地图构建,得到基于障碍物的代价地图;获取场景信息,并进行层级化的结构化表达,构建场景认知库;根据所述代价地图和所述场景认知库,构建多模态语义地图;分别构建多模态物体特征认知库和机器人行为认知库,并进行关系融合,得到多元认知库;根据所述多模态语义地图与所述多元认知库,实现机器人的自主导航。采用本发明实施例,使机器人具备实时感知语义位置的能力,能够根据实时场景信息动态调整导航任务和实现基于自然语言发布的模糊导航任务,提高机器人自主导航的效率、准确性和灵活性。
-
公开(公告)号:CN118196685A
公开(公告)日:2024-06-14
申请号:CN202410317400.9
申请日:2024-03-20
Applicant: 西安电子科技大学广州研究院
Abstract: 本发明公开了一种技能基元提取方法、装置、设备、存储介质及产品,包括:获取示教数据;其中,示教数据包括操作人员手部的RGB示教视频、深度数据和触觉压力数据;对每一帧示教视频中的手部多关键点进行检测,得到手部多关键点的二维坐标,并根据深度数据将二维坐标转换为三维坐标,得到运动轨迹;根据三维坐标,计算手部多关键点的运动特征;根据运动特征和触觉压力数据,对运动轨迹进行分割,得到视频片段;对视频片段中手部多关键点的运动特征及对应的触觉压力数据进行相似性度量,提取技能基元。采用本发明实施例,能够精准对运动轨迹进行提取和分割,并通过改变相似性度量方式,提高技能基元提取的准确性。
-
公开(公告)号:CN117275089A
公开(公告)日:2023-12-22
申请号:CN202311210043.8
申请日:2023-09-19
Applicant: 西安电子科技大学广州研究院 , 琶洲实验室(黄埔)
Abstract: 本发明公开了一种单目摄像头的人物识别方法、装置、设备及存储介质,通过单目摄像头获取场景图像;对所述场景图像中的人物进行姿态估计,确定所述人物的关键点的像素坐标;根据所述单目摄像头的相机内部参数将所述像素坐标转换为真实坐标系的真实坐标;根据所述人物的关键点的真实坐标确定所述人物的动作向量;根据确定的动作向量识别所述人物的行为动作。本申请能够低成本、高精度的是实现室内人物的定位识别。
-
公开(公告)号:CN117011761A
公开(公告)日:2023-11-07
申请号:CN202310814203.3
申请日:2023-07-04
Applicant: 西安电子科技大学广州研究院
IPC: G06V20/40 , G06V10/44 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种自监督行为关键帧检测方法及系统,通过构建不同交互行为的先验知识库,所述先验知识库中存储不同交互行为的状态信息;获取训练数据,采用预设的自标注模型和所述先验知识库为训练数据中的视频标注标签,得到训练集数据;将所述训练集数据输入到预建的检测器中进行迭代训练,得到行为检测模型。无需额外标注信息,建模成本低,模型实用性强。
-
公开(公告)号:CN116933655A
公开(公告)日:2023-10-24
申请号:CN202310979568.1
申请日:2023-08-06
Applicant: 西安电子科技大学广州研究院
IPC: G06F30/27 , G06T7/73 , G06T7/579 , G06F111/18
Abstract: 本发明公开了涉及混合现实技术领域的基于车载内外混合现实的自动驾驶仿真方法及系统,在仿真测试中通过MR头显创建虚拟场景和虚拟车辆,并实时获取真实车辆的空间信息进行匹配,实现虚拟车辆与真实车辆的同步叠加。同时,利用SLAM技术定位真实车辆,控制虚拟场景与真实车辆的逆变换,完成车内外混合现实的准确叠加。并采集虚拟传感器数据。通过信息融合决策和车辆控制,实现对车辆运动的控制,继续进行下一帧的混合现实叠加。本发明通过SLAM(同步定位与地图构建)技术、特征提取与匹配技术和高精度定位技术,实现了在自动驾驶仿真密闭车载环境下对真实车辆内外虚拟物体的精确叠加,提高了虚拟物体与现实世界叠加的准确性。
-
公开(公告)号:CN116912512A
公开(公告)日:2023-10-20
申请号:CN202310864222.7
申请日:2023-07-13
Applicant: 西安电子科技大学广州研究院 , 琶洲实验室(黄埔)
IPC: G06V10/44 , G06V10/774 , G06V10/82 , G06N3/04
Abstract: 本发明公开了一种物体6D姿态估计方法、装置、设备及存储介质,通过将待检测图像中的目标物体根据空间结构拆解为基本几何体部件的组合,得到简化部件模型的目标图像;采用预先训练的部件检测器获取所述简化部件模型的部件检测框,将所述部件检测框间的相对几何关系构建成节点特征;采用预先训练得到的图神经网络输出所述部件检测框的邻接矩阵;将所述邻接矩阵和所述节点特征组合为结构特征,采用预设的姿态预测头输出所述结构特征对应的6D姿态。无需预先获取目标物体的三维模型,高效、低成本地实现物体6D姿态估计。
-
公开(公告)号:CN116452917A
公开(公告)日:2023-07-18
申请号:CN202310373818.7
申请日:2023-04-07
Applicant: 西安电子科技大学广州研究院 , 琶洲实验室(黄埔)
IPC: G06V10/774 , G06V20/70 , G06V20/40 , G06V10/22 , G06V10/764 , G06V10/74 , G06V10/44
Abstract: 本申请实施例提供了一种面向物料安装的分类数据集构建方法及装置,通过对物料安装过程视频流图像的边缘特征识别,将原视频切割为物料安装操作状态和未操作状态两个分类属性的视频块;再对未操作状态属性的视频块基于RGB颜色直方图与标准图像的RGB颜色直方图相似度的计算后,通过比对类别而进一步切割,获取物料已安装属性的视频块和物料未安装的视频块;再将各切割后的视频块内对应的视频帧全部标记为所属视频块的属性,生成物料安装的分类数据集。本申请实现了基于机器视觉的视频帧批量标注,大幅节约了构建物料安装的分类数据集以往需要的人工标注操作,在节约人力资源和时间成本的同时,保证了数据标注的稳定性和数据集的精准度。
-
公开(公告)号:CN113807407B
公开(公告)日:2023-04-18
申请号:CN202110984344.0
申请日:2021-08-25
Applicant: 西安电子科技大学广州研究院
IPC: G06V10/82 , G06V10/762 , G06N3/092
Abstract: 本发明公开了一种目标检测模型训练方法,其通过深度强化学习网络实现对区域的对焦,生成目标更容易检测的最优区域,并用所述最优区域生成训练效果更好的混合训练样本,以通过所述混合训练样本训练目标检测模型,其能够使得不同的目标对象能够自适应调整到目标检测模型容易学习的尺度来进行训练,提升了目标检测模型的检测性能。相应地,本发明还提供一种目标检测模型装置、目标检测模型性能检测方法及装置。
-
-
-
-
-
-
-
-
-