-
公开(公告)号:CN111339759B
公开(公告)日:2023-07-25
申请号:CN202010107938.9
申请日:2020-02-21
申请人: 北京百度网讯科技有限公司
IPC分类号: G06F40/242 , G06F40/295 , G06N3/045 , G06N3/0442 , G06N3/047 , G06N3/088 , G06N3/0895 , G06N5/022
摘要: 本申请提出一种领域要素识别模型训练方法、装置及电子设备,属于自然语言处理技术领域。其中,该方法包括:利用预设的领域词典与预设的正则表达式,对训练数据集进行标注,以生成训练数据集中每个训练数据对应的第一参考实体标注信息;利用预设的要素识别模型,对训练数据集进行识别处理,以确定每个训练数据对应的预测实体标注信息;根据每个训练数据对应的预测实体标注信息与第一参考实体标注信息的差异,对预设的要素识别模型进行更新。由此,通过这种领域要素识别模型训练方法,不仅有效提升了要素识别模型的识别效果,通用性好,而且提高了要素识别的效率,大大降低了标注成本。
-
公开(公告)号:CN111563541B
公开(公告)日:2023-04-18
申请号:CN202010318213.4
申请日:2020-04-21
申请人: 北京百度网讯科技有限公司
IPC分类号: G06V10/764 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/08
摘要: 本申请公开了图像检测模型的训练方法和装置,涉及计算机视觉技术领域。具体实施方式包括:获取目标图像的目标特征图,以及利用图像检测模型,预测该目标特征图中每个区块到该区块所在的对象在指定方向上最远的边界的距离并作为目标距离,以及根据该目标距离以及该区块的坐标,确定该边界的位置;基于该目标特征图中区块的指示预设对象类别的伪标签,确定属于相同预设对象类别且距离在预设范围内的任意两个区块;基于该任意两个区块分别所在的对象的边界的位置的差,确定目标距离对应的损失值;基于该损失值,训练该图像检测模型,得到训练后的图像检测模型。本申请将两个区块所对应的边界位置一致作为训练目标,可以有效区别图像中不同的对象。
-
公开(公告)号:CN109948542B
公开(公告)日:2022-09-23
申请号:CN201910210038.4
申请日:2019-03-19
申请人: 北京百度网讯科技有限公司
摘要: 本申请提出一种手势识别方法、装置、电子设备和存储介质,其中,方法包括:利用预设的手掌朝向识别模型,对目标视频帧的各图像依次进行识别处理,确定每帧图像中包含手掌图像的概率及每帧图像对应的手掌法向量;根据各帧图像中包含手掌图像的概率,确定目标视频帧中包括的目标图像组;根据目标图像组中每帧目标图像对应的手掌法向量,确定目标视频帧对应的目标手势。该方法通过利用预设的手掌朝向识别模型可以直接输出手掌法向量,进而确定手势,算法简单,识别速度快。
-
公开(公告)号:CN110807410B
公开(公告)日:2022-09-06
申请号:CN201911044546.6
申请日:2019-10-30
申请人: 北京百度网讯科技有限公司
摘要: 本申请公开了关键点定位方法、装置、电子设备和存储介质,涉及关键点检测领域。具体实现方案为:关键点定位方法,包括:获取当前帧包括的至少一个手部区域;利用关键点检测模型对当前帧的各手部区域进行关键点检测,得到当前帧的各手部区域包括的各关键点的预测位置;对当前帧的各手部区域包括的各关键点的预测位置进行平滑处理,得到当前帧的各关键点的定位结果。本申请在利用关键点检测模型检测得到当前帧的各手部区域包括的各关键点后,通过对各手部区域包括的各关键点的预测位置进行平滑处理,得到当前帧的各关键点的定位结果,有利于减少抖动,提高模型输出结果的稳定性。
-
公开(公告)号:CN111625157B
公开(公告)日:2021-09-17
申请号:CN202010431810.8
申请日:2020-05-20
申请人: 北京百度网讯科技有限公司
IPC分类号: G06F3/0481 , G06F3/0488 , G06K9/00 , G06K9/62 , G06N3/02
摘要: 本申请公开了一种指尖关键点检测方法、装置、设备和可读存储介质,涉及计算机视觉技术领域。具体实现方案为:获取待检测图像中的人手区域;对所述人手区域进行手势检测,得到所述人手区域的手势类别;响应于所述手势类别为指尖触发类别,输出对所述人手区域进行人手关键点检测得到的、与所述指尖触发类别对应的指尖关键点的位置信息。本实施例能够提高指尖关键点的检测精度。
-
公开(公告)号:CN110147737B
公开(公告)日:2021-06-18
申请号:CN201910340393.3
申请日:2019-04-25
申请人: 北京百度网讯科技有限公司
摘要: 本公开涉及用于生成视频的方法、装置、设备和存储介质。在一个方法中,获取包括用于生成视频的一组目标动作的动作视频,动作视频包括由人物执行一组目标动作的一组动作图像。从一组动作图像中,标识一组目标动作。根据目标人物的动作模型中包括的目标人物的动作、目标人物的目标人物图像与目标人物图像的目标蒙版之间的关联关系,分别确定与一组目标动作相关联的一组目标人物图像和一组目标人物图像的一组目标蒙版。基于一组目标人物图像和一组目标蒙版,生成包括由目标人物执行一组目标动作的视频。采用上述实现方式,可以以更为有效的方式确定目标人物的动作,使得目标人物的动作更为自然。
-
公开(公告)号:CN111090987B
公开(公告)日:2021-02-05
申请号:CN201911378383.5
申请日:2019-12-27
申请人: 北京百度网讯科技有限公司
IPC分类号: G06F40/211 , G06F40/242 , G06F40/295 , G06N3/04 , G06N3/08
摘要: 本公开的实施例公开了用于输出信息的方法和装置。该方法的一具体实施方式包括:获取待识别的语句;将待识别的语句进行切词得到词序列;将词序列输入预先训练的基于序列标注和实体词预测的多任务要素识别模型,输出识别出的实体词、实体类别和实体词位置,其中,多任务要素识别模型包括序列标注网络和实体词预测网络,序列标注网络用于执行序列标注任务,实体词预测网络用于执行实体词预测任务,BILSTM‑CRF网络在LSTM的隐层之后通过融合模块与实体词预测网络融合。该实施方式将领域词典知识融入要素识别模型,提升要素识别效果。
-
公开(公告)号:CN107369443B
公开(公告)日:2020-09-25
申请号:CN201710518293.6
申请日:2017-06-29
申请人: 北京百度网讯科技有限公司
IPC分类号: G10L15/06 , G10L15/18 , G10L15/26 , G06F16/332 , G06F16/33
摘要: 本发明提出一种基于人工智能的对话管理方法及装置,其中,方法包括:根据当前对话状态特征、候选系统行为特征以及对候选系统行为的环境反馈信息并基于决策模型从至少一个候选系统行为中确定最佳系统行为;由于当前对话状态特征对应的当前对话状态包括了自然语音理解结果的不确定性结果,根据当前对话状态获取的至少一个候选系统行为自然包括对不确定性结果的系统行为,这样,决策模型就能够对自然语音理解结果的不确定性结果进行决策,相比现有技术中利用确定性结果进行决策的方式,本发明能够解决现有技术中无法理解具有不确定性或用户表述具有歧义的场景的技术问题,从而能够更加正确的理解用户的需求,提升用户体验。
-
公开(公告)号:CN110277149A
公开(公告)日:2019-09-24
申请号:CN201910579541.7
申请日:2019-06-28
申请人: 北京百度网讯科技有限公司
摘要: 本发明提出了一种电子病历的处理方法、装置及设备,其中,方法包括:获取待处理的病历文本;识别出病历文本中的医学实体和属性信息;确定医学实体与所述属性信息之间的对应关系;根据对应关系生成结构化病历。由此,通过识别电子病历中的医疗实体及描述医疗实体的属性信息,并生成结构化病历,满足对病历的结构化需求,提高效率,降低了成本。
-
公开(公告)号:CN109948542A
公开(公告)日:2019-06-28
申请号:CN201910210038.4
申请日:2019-03-19
申请人: 北京百度网讯科技有限公司
IPC分类号: G06K9/00
摘要: 本申请提出一种手势识别方法、装置、电子设备和存储介质,其中,方法包括:利用预设的手掌朝向识别模型,对目标视频帧的各图像依次进行识别处理,确定每帧图像中包含手掌图像的概率及每帧图像对应的手掌法向量;根据各帧图像中包含手掌图像的概率,确定目标视频帧中包括的目标图像组;根据目标图像组中每帧目标图像对应的手掌法向量,确定目标视频帧对应的目标手势。该方法通过利用预设的手掌朝向识别模型可以直接输出手掌法向量,进而确定手势,算法简单,识别速度快。
-
-
-
-
-
-
-
-
-