-
公开(公告)号:CN110168575B
公开(公告)日:2023-06-30
申请号:CN201780076850.1
申请日:2017-12-08
Applicant: 微软技术许可有限责任公司
IPC: G06N3/04 , G06F16/33 , G06F16/332
Abstract: 一种使用序列到序列神经网络针对文档对查询进行评分的技术。技术包括:接收来自用户的包括多个词语的查询;基于查询,针对包括词语的文档执行搜索;馈送文档的词语作为多层序列到序列转换器的编码器的输入;在多层序列到序列转换器的解码器处生成多个向量,每个向量包括与查询中的相应词语相关联的概率;在相应向量中查找每个词语与文档相关联的概率;将每个词语的概率乘在一起以确定查询与文档相关联的总概率;并且如果查询与文档相关联的总概率大于阈值,则将文档返回给用户。
-
公开(公告)号:CN110168575A
公开(公告)日:2019-08-23
申请号:CN201780076850.1
申请日:2017-12-08
Applicant: 微软技术许可有限责任公司
IPC: G06N3/04 , G06F16/33 , G06F16/332
Abstract: 一种使用序列到序列神经网络针对文档对查询进行评分的技术。技术包括:接收来自用户的包括多个词语的查询;基于查询,针对包括词语的文档执行搜索;馈送文档的词语作为多层序列到序列转换器的编码器的输入;在多层序列到序列转换器的解码器处生成多个向量,每个向量包括与查询中的相应词语相关联的概率;在相应向量中查找每个词语与文档相关联的概率;将每个词语的概率乘在一起以确定查询与文档相关联的总概率;并且如果查询与文档相关联的总概率大于阈值,则将文档返回给用户。
-
公开(公告)号:CN116438529A
公开(公告)日:2023-07-14
申请号:CN202080107084.2
申请日:2020-11-12
Applicant: 微软技术许可有限责任公司
IPC: G06F16/9032
Abstract: 一种用于生成式常识推理的知识注入模型。在示例中,使用编码器‑解码器模型来生成模型输出(204),针对概念集的合理描述。从领域内或领域外知识语料库生成原型(218),该原型进一步被用作针对编码器‑解码器模型的输入(202)。缩放概念输入令牌和原型输入令牌,以限制可能由原型(218)引入的潜在偏差。另外,针对每个输入令牌生成位置指示符,这些位置指示符指示每个输入令牌与其他输入令牌相比的相对位置。如此,在对经缩放的、经编码的输入令牌进行解码时,解码器(214)可以更适应由原型(218)在生成模型输出(204)时引入的场景偏差。因此,在生成模型输出(204)时,编码器‑解码器模型不需要仅仅依赖于概念集。
-
公开(公告)号:CN116249971A
公开(公告)日:2023-06-09
申请号:CN202180066360.X
申请日:2021-05-28
Applicant: 微软技术许可有限责任公司
IPC: G06F12/0813 , G06F12/0895 , G06F40/44 , G06F40/56 , G06N3/045 , G06N3/063 , G06N3/08
Abstract: 描述了用于动态修改与自然语言生成器的神经网络模型相关联的高速缓存的系统和方法。在示例中,神经网络模型在对输出进行解码并生成预测输出候选时在解码器处采用集束搜索算法。解码器利用高速缓存技术来提高神经网络操作的速度。当由神经网络模型的一个或多个高速缓存所利用的存储器量被确定为超过阈值存储器大小时,与神经网络模型的层相关联的高速缓存的层特定部分被标识。当由神经网络模型的高速缓存所利用的存储器量超过阈值存储器大小时,可以删除高速缓存的所标识的层特定部分。在示例中,高速缓存中的数据被去重复和/或删除。
-
公开(公告)号:CN116635874A
公开(公告)日:2023-08-22
申请号:CN202080107781.8
申请日:2020-12-25
Applicant: 微软技术许可有限责任公司
IPC: G06N20/00
Abstract: 提供了用于基于训练数据训练数据模型的系统和方法。该训练包括基于自回归(AR)模型和非自回归(NAR)模型的组合预训练和微调数据模型。训练数据可以被并被编码为词元流。解码期间的预训练器生成AR和NAR组合的模型的连续数据结构的连续统一体,AR和NAR组合的模型包括主流和一系列预测流。预测流中的掩码词元参考或注意主流或先前预测流中的一个或多个先前词元。微调器根据目标数据模型选择流来生成经训练的模型。目标数据模型基于平衡用于预测词元的准确性约束和效率约束被确定。解码器在生成经训练的数据模型中充当AR和NAR模型之间的桥梁。
-
公开(公告)号:CN115699109A
公开(公告)日:2023-02-03
申请号:CN202180023790.3
申请日:2021-02-17
Applicant: 微软技术许可有限责任公司
IPC: G06V30/10 , G06V30/413 , G06V10/80 , G06V10/25 , G06V30/19 , G06V10/82 , G06N3/0464 , G06F40/30
Abstract: 一种计算机实现的技术使用多模态融合方法使用一个或多个神经网络以标识与输入图像相关联的至少一个项名称。该技术被称为是多模态的,因为它收集和处理关于每个检测到的项名称的不同种类的证据。该技术被称为采用融合方法,因为它将多模态证据融合成输出结论,该输出结论标识与输入图像相关联的至少一个项名称。在一个示例中,第一模式通过标识和分析输入图像中可能包括项名称相关信息的区域来收集证据。第二模式收集和分析作为输入图像本身的部分而出现的任何文本。第三模式收集和分析未被包括在输入图像本身中但仍然与输入图像相关联的文本。
-
公开(公告)号:CN113874878A
公开(公告)日:2021-12-31
申请号:CN202080038741.2
申请日:2020-03-25
Applicant: 微软技术许可有限责任公司
IPC: G06K9/62 , G06K9/32 , G06F16/583 , G06F16/53 , G06K9/46
Abstract: 本文中描述的技术涉及标识与在网页的图像中捕获的对象相关的补充内容项。计算系统接收客户端计算设备具有显示在其上的包括图像的网页的指示。该图像被提供给第一DNN,该第一DNN被配置为标识图像的一部分,该部分包括来自多个预定义类型之中的一个类型的对象。一旦图像的一部分被标识,图像的该部分就被提供给多个DNN,其中每个DNN被配置为输出表示对象的相应属性的值的字词或短语。由多个DNN输出的字词或短语序列被提供给搜索计算系统,该搜索计算系统基于字词或短语序列标识补充内容项。
-
公开(公告)号:CN116635874B
公开(公告)日:2025-04-04
申请号:CN202080107781.8
申请日:2020-12-25
Applicant: 微软技术许可有限责任公司
Abstract: 提供了用于基于训练数据训练数据模型的系统和方法。该训练包括基于自回归(AR)模型和非自回归(NAR)模型的组合预训练和微调数据模型。训练数据可以被并被编码为词元流。解码期间的预训练器生成AR和NAR组合的模型的连续数据结构的连续统一体,AR和NAR组合的模型包括主流和一系列预测流。预测流中的掩码词元参考或注意主流或先前预测流中的一个或多个先前词元。微调器根据目标数据模型选择流来生成经训练的模型。目标数据模型基于平衡用于预测词元的准确性约束和效率约束被确定。解码器在生成经训练的数据模型中充当AR和NAR模型之间的桥梁。
-
公开(公告)号:CN113874878B
公开(公告)日:2024-12-03
申请号:CN202080038741.2
申请日:2020-03-25
Applicant: 微软技术许可有限责任公司
IPC: G06V10/764 , G06V10/82 , G06F16/583 , G06F16/53 , G06N3/045 , G06V30/148
Abstract: 本文中描述的技术涉及标识与在网页的图像中捕获的对象相关的补充内容项。计算系统接收客户端计算设备具有显示在其上的包括图像的网页的指示。该图像被提供给第一DNN,该第一DNN被配置为标识图像的一部分,该部分包括来自多个预定义类型之中的一个类型的对象。一旦图像的一部分被标识,图像的该部分就被提供给多个DNN,其中每个DNN被配置为输出表示对象的相应属性的值的字词或短语。由多个DNN输出的字词或短语序列被提供给搜索计算系统,该搜索计算系统基于字词或短语序列标识补充内容项。
-
公开(公告)号:CN117203629A
公开(公告)日:2023-12-08
申请号:CN202180094676.X
申请日:2021-04-12
Applicant: 微软技术许可有限责任公司
IPC: G06F18/24 , G06N3/042 , G06N3/0464 , G06N3/098
Abstract: 提供了用于学习分类器的系统和方法,该分类器用于在存在超过一百万个标签的极限分类下利用预测标签来注释文档。该学习包括接收包括作为节点的文档和标签的联合图。基于联合图的图卷积生成文档的多维向量表示(即,文档表示)。每个文档表示对相邻节点的依赖程度不同以容纳上下文。使用残差层对文档表示进行特征变换。基于相邻标签注意力从经变换的文档表示生成每标签文档表示。基于使用训练数据和每标签文档表示的联合学习,针对超过一百万个标签中的每个标签来训练分类器。与使用文档和标签的不相交图训练的其它分类器相比,经训练的分类器高度高效地执行。
-
-
-
-
-
-
-
-
-