用于预测数据的数据模型的生成

    公开(公告)号:CN116635874A

    公开(公告)日:2023-08-22

    申请号:CN202080107781.8

    申请日:2020-12-25

    Abstract: 提供了用于基于训练数据训练数据模型的系统和方法。该训练包括基于自回归(AR)模型和非自回归(NAR)模型的组合预训练和微调数据模型。训练数据可以被并被编码为词元流。解码期间的预训练器生成AR和NAR组合的模型的连续数据结构的连续统一体,AR和NAR组合的模型包括主流和一系列预测流。预测流中的掩码词元参考或注意主流或先前预测流中的一个或多个先前词元。微调器根据目标数据模型选择流来生成经训练的模型。目标数据模型基于平衡用于预测词元的准确性约束和效率约束被确定。解码器在生成经训练的数据模型中充当AR和NAR模型之间的桥梁。

    机器学习模型的对抗预训练
    3.
    发明公开

    公开(公告)号:CN115485696A

    公开(公告)日:2022-12-16

    申请号:CN202180028886.9

    申请日:2021-02-19

    Abstract: 本文档涉及机器学习模型的训练。一种示例方法涉及提供具有一个或多个映射层的机器学习模型。一个或多个映射层可以至少包括第一映射层,第一映射层被配置为将预训练示例的分量映射到空间中的第一表示。该示例方法还包括使用预训练示例在一个或多个映射层上执行预训练阶段。预训练阶段可以包括将噪声添加到预训练示例的分量的第一表示以获得经噪声调整的第一表示。预训练阶段还可以包括执行自监督学习过程以至少使用训练数据项的第一表示和训练数据项的经噪声调整的第一表示来预训练一个或多个映射层。

    减少生成语言模型的偏差
    5.
    发明公开

    公开(公告)号:CN117441165A

    公开(公告)日:2024-01-23

    申请号:CN202280040623.4

    申请日:2022-05-10

    Abstract: 本文的公开描述了减少由生成语言模型生成的输出中的训练偏差。与通信相关联的通信段由生成语言模型的至少一个处理器获得。与通信段相关联的输出值由生成语言模型生成。输出值被映射到与生成语言模型相关联的训练偏差值集合,并且基于输出值到该训练偏差值集合中的训练偏差值的映射,备选输出值被生成。备选输出值被使用在用于通信段的生成的段输出中。通过减少或消除生成语言模型的训练偏差,由生成语言模型生成的段输出的准确性被提高。

    机器学习模型的对抗训练
    6.
    发明公开

    公开(公告)号:CN114641779A

    公开(公告)日:2022-06-17

    申请号:CN202080077349.9

    申请日:2020-10-19

    Abstract: 本文档涉及诸如神经网络之类的机器学习模型的训练。一种示例方法包括提供具有一个或多个层以及相关联的参数的机器学习模型,以及对机器学习模型的参数执行预训练阶段以获得经预训练的参数。该示例方法还包括通过使用经标注的训练样本对机器学习模型执行调节阶段,以调节经预训练的参数。调节阶段可以包括执行对经标注的训练示例的噪声调整,以获得经噪声调整的训练样本。调节阶段还可以包括至少基于经标注的训练示例和经噪声调整的训练示例来调整经预训练的参数,以获得经适配的参数。该示例方法还可以包括输出具有经适配的参数的经调节的机器学习模型。

    用于预测数据的数据模型的生成

    公开(公告)号:CN116635874B

    公开(公告)日:2025-04-04

    申请号:CN202080107781.8

    申请日:2020-12-25

    Abstract: 提供了用于基于训练数据训练数据模型的系统和方法。该训练包括基于自回归(AR)模型和非自回归(NAR)模型的组合预训练和微调数据模型。训练数据可以被并被编码为词元流。解码期间的预训练器生成AR和NAR组合的模型的连续数据结构的连续统一体,AR和NAR组合的模型包括主流和一系列预测流。预测流中的掩码词元参考或注意主流或先前预测流中的一个或多个先前词元。微调器根据目标数据模型选择流来生成经训练的模型。目标数据模型基于平衡用于预测词元的准确性约束和效率约束被确定。解码器在生成经训练的数据模型中充当AR和NAR模型之间的桥梁。

    并行化的在线学习方法

    公开(公告)号:CN102298569B

    公开(公告)日:2016-03-16

    申请号:CN201110184798.6

    申请日:2011-06-23

    CPC classification number: G06N99/005

    Abstract: 本发明揭示了在线学习算法的并行化。提供了用于在线学习算法的并行化中使用的动态批策略的方法、系统,和媒介。该动态批策略提供了以原始模型状态和经更新的模型状态之间的阈值级别差异为基础的、而非根据恒定或预定批大小的合并功能。该合并过程包括读取一批传入流数据,从合作处理器检索任何缺少的模型信任,并且在该批传入流数据上进行训练。重复各读取、检索和训练步骤,直到所测得的状态差异超过设定的阈值级别。根据各属性,为多个处理器中的每一个合并所测得的超过阈值级别的差异。合并的超过阈值级别的差异与原始部分模型状态组合以获得经更新的全局模型状态。

Patent Agency Ranking