-
公开(公告)号:CN108334644A
公开(公告)日:2018-07-27
申请号:CN201810274877.8
申请日:2018-03-30
Applicant: 百度在线网络技术(北京)有限公司
CPC classification number: G06F17/30247 , G06F17/3028 , G06K9/6215
Abstract: 本发明实施例提出一种图像识别方法和装置。该方法包括:获取查询图像对应的相似图像,相似图像为根据查询图像的第一视觉特征检索得到的图像,所述第一视觉特征包括全局视觉特征和/或局部视觉特征;将查询图像的第二视觉特征与相似图像的第二视觉特征进行匹配,形成多组视觉特征对,所述第二视觉特征包括局部视觉特征;从所述多组视觉特征对中去除误匹配的视觉特征对;根据剩余的视觉特征对,确定查询图像与相似图像是否匹配成功。本发明实施例在图像识别过程中,能够对第一次图像检索得到的相似图像进行二次匹配,在二次匹配中可以使用比第一次检索更加精细的误匹配去除方法去除误匹配的视觉特征对,提高了图像识别的准确率,减少误识别。
-
公开(公告)号:CN110335317A
公开(公告)日:2019-10-15
申请号:CN201910590928.2
申请日:2019-07-02
Applicant: 百度在线网络技术(北京)有限公司
Abstract: 本申请提供一种基于终端设备定位的图像处理方法、装置、设备和介质,其中,该方法,包括:将获取到的第一个图像帧发送给云端服务器,以使云端服务器对第一个图像帧进行视觉定位处理;对相邻的图像帧进行坐标变换处理,得到相邻的图像帧之间的坐标变换信息;在接收云端服务器发送的第一个图像帧中的特征点的三维坐标信息时,根据各坐标变换信息和第一个图像帧,确定第N个图像帧的二维坐标信息,二维坐标信息为第一个图像帧中的特征点在N个图像帧上的二维坐标;根据第N个图像帧的二维坐标信息和特征点的三维坐标信息,确定第N个图像帧在世界坐标系下的位姿信息。准确的得到第N帧图像帧的位姿信息。
-
公开(公告)号:CN110322569A
公开(公告)日:2019-10-11
申请号:CN201910592876.2
申请日:2019-07-03
Applicant: 百度在线网络技术(北京)有限公司
Abstract: 本发明提供一种多模态AR处理方法、装置、设备和可读存储介质,通过根据用户请求信息,获取视频帧图像和AR任务属性;根据所述AR任务属性,在预设的多个处理模型组合中确定目标模型组合,其中,所述目标模型组合包括预设的共用跟踪处理模型和与所述任务属性相对应的校正处理模型、地图处理模型;在数据共享的三线程架构中以所述目标模型组合,对所述视频帧图像进行与所述AR任务属性对应的AR处理,从而可根据应用需求选择对应的处理模型组合,以提供适应多种场景下的多模态AR处理,且处理模型组合中各模型之间数据共享,降低了重复计算,提高了AR处理的处理效率和灵活性。
-
公开(公告)号:CN108334644B
公开(公告)日:2019-03-15
申请号:CN201810274877.8
申请日:2018-03-30
Applicant: 百度在线网络技术(北京)有限公司
Abstract: 本发明实施例提出一种图像识别方法和装置。该方法包括:获取查询图像对应的相似图像,相似图像为根据查询图像的第一视觉特征检索得到的图像,所述第一视觉特征包括全局视觉特征和/或局部视觉特征;将查询图像的第二视觉特征与相似图像的第二视觉特征进行匹配,形成多组视觉特征对,所述第二视觉特征包括局部视觉特征;从所述多组视觉特征对中去除误匹配的视觉特征对;根据剩余的视觉特征对,确定查询图像与相似图像是否匹配成功。本发明实施例在图像识别过程中,能够对第一次图像检索得到的相似图像进行二次匹配,在二次匹配中可以使用比第一次检索更加精细的误匹配去除方法去除误匹配的视觉特征对,提高了图像识别的准确率,减少误识别。
-
公开(公告)号:CN108510525A
公开(公告)日:2018-09-07
申请号:CN201810290708.3
申请日:2018-03-30
Applicant: 百度在线网络技术(北京)有限公司
Abstract: 本发明提出一种模板追踪方法、装置、增强现实系统及计算机可读存储介质。其中模板追踪方法包括:预先设置模板图片;在连续采集图像中当前图像里匹配所述模板图片,其中连续采集图像是由摄像头采集的;使用追踪算法计算连续采集的图像中的当前图像里的模板图片的估计姿态;根据估计姿态使用匹配算法计算连续采集的图像中的当前图像里的模板图片的精确姿态;以及在未计算出当前图像里的模板图片的精确姿态的情况下返回估计姿态;在计算出当前图像里的模板图片的精确姿态的情况下返回精确姿态。本发明实施例提高了追踪的精度和速度,可应用于AR模板图追踪,使模型紧贴模板图片,让用户有更好的AR体验;对硬件要求低,降低使用门槛,扩大用户群体。
-
公开(公告)号:CN109255801B
公开(公告)日:2022-02-22
申请号:CN201810880412.7
申请日:2018-08-03
Applicant: 百度在线网络技术(北京)有限公司
Abstract: 本申请实施例提供了一种视频中三维物体边缘追踪的方法、装置、设备及存储介质。该方法包括:获取前一帧图像中目标三维物体的边缘轮廓中的边缘点;确定当前帧图像中与前一帧图像中的边缘点对应的匹配点;根据前一帧图像中的每个边缘点与周围边缘点的位置关系,当前帧图像中每个边缘点对应的匹配点与周围匹配点的位置关系确定错误匹配点对和正确匹配点对;根据正确匹配点对和目标三维物体的模型信息计算当前帧图像和前一帧图像中的目标三维物体的相对姿态。能够使计算出的目标三维物体的相对姿态更加准确,进而更好地对目标三维物体的边缘进行追踪。
-
公开(公告)号:CN109063774A
公开(公告)日:2018-12-21
申请号:CN201810878766.8
申请日:2018-08-03
Applicant: 百度在线网络技术(北京)有限公司
IPC: G06K9/62
Abstract: 本发明提供一种图像追踪效果评价方法、装置、设备及可读存储介质。方法包括:根据预设算法提取目标图像的特征点;根据特征点确定目标图像的第一纹理信息;根据预设处理规则对目标图像进行处理得到对比图像,根据对比图像确定目标图像的第二纹理信息;根据第一纹理信息、第二纹理信息对目标图像进行评分。本发明提供的方案,能够根据提取的特征点得到纹理信息,还能够对目标图像进行处理,并基于处理后的图像得到纹理信息,再根据纹理信息对目标图像的追踪效果进行评分,无需将目标图像放置到实际产品中,就可以获知目标图像的追踪效果,无需等到产品制作完成后再确定图像的追踪效果,并且能够提高对图像追踪效果评价的效率。
-
公开(公告)号:CN110322569B
公开(公告)日:2023-03-31
申请号:CN201910592876.2
申请日:2019-07-03
Applicant: 百度在线网络技术(北京)有限公司
Abstract: 本发明提供一种多模态AR处理方法、装置、设备和可读存储介质,通过根据用户请求信息,获取视频帧图像和AR任务属性;根据所述AR任务属性,在预设的多个处理模型组合中确定目标模型组合,其中,所述目标模型组合包括预设的共用跟踪处理模型和与所述任务属性相对应的校正处理模型、地图处理模型;在数据共享的三线程架构中以所述目标模型组合,对所述视频帧图像进行与所述AR任务属性对应的AR处理,从而可根据应用需求选择对应的处理模型组合,以提供适应多种场景下的多模态AR处理,且处理模型组合中各模型之间数据共享,降低了重复计算,提高了AR处理的处理效率和灵活性。
-
公开(公告)号:CN110335317B
公开(公告)日:2022-03-25
申请号:CN201910590928.2
申请日:2019-07-02
Applicant: 百度在线网络技术(北京)有限公司
Abstract: 本申请提供一种基于终端设备定位的图像处理方法、装置、设备和介质,其中,该方法,包括:将获取到的第一个图像帧发送给云端服务器,以使云端服务器对第一个图像帧进行视觉定位处理;对相邻的图像帧进行坐标变换处理,得到相邻的图像帧之间的坐标变换信息;在接收云端服务器发送的第一个图像帧中的特征点的三维坐标信息时,根据各坐标变换信息和第一个图像帧,确定第N个图像帧的二维坐标信息,二维坐标信息为第一个图像帧中的特征点在N个图像帧上的二维坐标;根据第N个图像帧的二维坐标信息和特征点的三维坐标信息,确定第N个图像帧在世界坐标系下的位姿信息。准确的得到第N帧图像帧的位姿信息。
-
公开(公告)号:CN109063774B
公开(公告)日:2021-01-12
申请号:CN201810878766.8
申请日:2018-08-03
Applicant: 百度在线网络技术(北京)有限公司
IPC: G06K9/62
Abstract: 本发明提供一种图像追踪效果评价方法、装置、设备及可读存储介质。方法包括:根据预设算法提取目标图像的特征点;根据特征点确定目标图像的第一纹理信息;根据预设处理规则对目标图像进行处理得到对比图像,根据对比图像确定目标图像的第二纹理信息;根据第一纹理信息、第二纹理信息对目标图像进行评分。本发明提供的方案,能够根据提取的特征点得到纹理信息,还能够对目标图像进行处理,并基于处理后的图像得到纹理信息,再根据纹理信息对目标图像的追踪效果进行评分,无需将目标图像放置到实际产品中,就可以获知目标图像的追踪效果,无需等到产品制作完成后再确定图像的追踪效果,并且能够提高对图像追踪效果评价的效率。
-
-
-
-
-
-
-
-
-