分布式训练部署系统及其方法

    公开(公告)号:CN112486630B

    公开(公告)日:2024-07-26

    申请号:CN202011375644.0

    申请日:2020-11-30

    Abstract: 本发明公开了一种分布式训练部署系统。所述系统包括:从容器创建组件,基于用户输入的分布式任务创建申请包含的资源清单创建从容器集,并确认所创建的从容器处于可备用状态;主容器创建组件,基于用户输入的资源清单创建主容器,并确认所创建的主容器处于可备用状态;容器IP获取组件,获取所创建的主容器和从容器的IP,并基于所获取的IP创建JS对象简谱文件,并将该JS对象简谱文件写入所有主容器和从容器的指定位置;以及免密认证组件,通过对属于同一分布式任务的主容器和从容器配置安全密钥和认证信息,建立主容器和从容器之间的网络通讯的SSH免密认证。

    一种基于目标检测算法的社交距离监测方法和装置

    公开(公告)号:CN115880643B

    公开(公告)日:2023-06-27

    申请号:CN202310016375.6

    申请日:2023-01-06

    Abstract: 本申请涉及人工智能技术领域,尤其是涉及一种基于目标检测算法的社交距离监测方法和装置,该方法包括:步骤一,获取监控设备的拍摄参数,以及监控视频中的实时视频流,并对视频流进行抽帧操作,获取到图像样本;步骤二,采用目标检测算法对图像样本进行行人运动目标物检测,后对检测到的行人运动目标物进行基于中心点的标记;步骤三,采用图像类比算法计算行人间距;步骤四,设定行人间距阈值,对于小于行人间距阈值的行人间距,对其对应的行人标记做警示处理。本发明对于固定监控场景下进行监控图像处理,并对行人间距进行实时计算,并做出警示标识,大大简化了计算逻辑,提升计算效率,增强距离精度计算,使整个社交距离的监控更加稳定流畅。

    一种掩码变形方法及其掩码形变网络的训练方法

    公开(公告)号:CN115424110A

    公开(公告)日:2022-12-02

    申请号:CN202210991817.4

    申请日:2022-08-17

    Abstract: 本发明涉及图像处理领域,具体涉及一种掩码变形方法,其能在仅知晓目标域标签信息的前提下,实现域之间的实例形变,且能够使得实例和掩码信息保持一致,其首先获得源域掩码的整体特征,然后将源域的各实例掩码分别与整体特征进行融合,获得各实例掩码特征;然后,再将目标域标签信息的特征编码分别嵌入各实例掩码特征;最后,通过生成器输出目标域生成掩码,作为对应目标域的实例掩码。同时,提供了一种掩码变形方法的掩码形变网络的训练方法,其以目标域真实掩码和通过上述掩码形变网络生成的掩码构成正负样本对,进行生成对抗网络训练,提出了一种有效且高效的训练范式。

    一种基于预训练标注数据不可知的图像分类自动标注方法

    公开(公告)号:CN113191385B

    公开(公告)日:2022-06-03

    申请号:CN202110318366.3

    申请日:2021-03-25

    Abstract: 本发明公开了一种基于预训练标注数据不可知的图像分类自动标注方法,包括如下步骤:S1,获取待标注图像,收集预训练图像分类模型;S2,将预训练图像分类模型拆分成特征提取模型与标签预测模型,并初始化,固定标签预测模型参数,不参与后续迁移训练;S3,约束特征提取模型,使自动标注模型的输出具体类别确定,整体分布离散;S4,对特征提取模型输出特征进行聚类;S5,筛选出大小超过阈值的聚类簇,所对应的类别组成为待标注图像标签空间;S6,给所有待标注图像打上伪标签;S7,重新聚类并分配伪标签,对特征提取模型进行有监督训练;S8,迭代S3至S7;S9,使用迁移后的自动标注模型对待标注图像进行推理,得到标注结果。

    一种基于范例学习的文本摘要生成框架及方法

    公开(公告)号:CN113673241A

    公开(公告)日:2021-11-19

    申请号:CN202110885791.0

    申请日:2021-08-03

    Abstract: 本发明公开了一种基于范例学习的文本摘要生成框架及方法,允许在摘要生成的过程中参考一些写作范例,框架包括检索和生成两个阶段,检索阶段,给定一个文本,使用对比学习去数据库中检索一些范例,假定越好的摘要在语义空间应该和原文离得更近,检索器的模型使用了孪生网络的结构;生成阶段,提出了一种结合范例进行摘要生成的方法,可以方便的加在目前所有主流的条件生成模型上,为了更好的学习范例,将待生成的摘要和范例摘要按照句子对齐;通过训练好的模型进行预测,即解码阶段,使用集束搜索算法并鼓励那些和范例更相似的束。

    基于多层级知识蒸馏预训练语言模型自动压缩方法及平台

    公开(公告)号:CN112241455B

    公开(公告)日:2021-05-04

    申请号:CN202011498328.2

    申请日:2020-12-17

    Abstract: 本发明公开了一种基于多层级知识蒸馏的预训练语言模型自动压缩方法及平台,所述方法包括如下步骤:步骤一、构建多层级知识蒸馏,在自注意力单元、隐藏层状态、嵌入层三个不同层级上蒸馏大模型的知识结构;步骤二、训练元学习的知识蒸馏网络,生成多种预训练语言模型的通用压缩架构;步骤三、基于进化算法搜索最佳压缩结构。首先,研究基于元学习的知识蒸馏生成多种预训练语言模型的通用压缩架构;其次,在已训练好的元学习网络基础上,通过进化算法搜索最佳压缩结构,由此得到与任务无关的预训练语言模型的最优通用压缩架构。

    一种基于Transformer自注意力的可视分析方法及装置

    公开(公告)号:CN116975253A

    公开(公告)日:2023-10-31

    申请号:CN202310750125.5

    申请日:2023-06-25

    Abstract: 本发明公开了一种基于Transformer自注意力的可视分析方法及装置。本发明通过可视分析图表了解深度学习模型的训练层及注意力头的自注意力的整体分布情况及统计规律,并可通过数据链接图和矩阵图具体训练样本查看自注意力在实例中的联系情况;计算机视觉领域的注意力可视分析揭示在训练任务中像素块之间的相互关注性,通过全局归一化和局部归一化两种方式查看不同层和头之间的自注意力分布情况,获得下游任务得出结果的过程。通过本发明,研究人员利用统计分析图表,可直观地观察Transformer模型内部注意力头的值分布情况,选择感兴趣的注意力头。且通过具体的单个注意力头可视化,研究人员可以分析注意力头在具体任务中所发挥的作用,帮助研究人员改进优化模型。

    一种面向天枢人工智能平台的模型结构提取方法及装置

    公开(公告)号:CN116821425A

    公开(公告)日:2023-09-29

    申请号:CN202310750193.1

    申请日:2023-06-25

    Abstract: 本发明公开了一种面向天枢人工智能平台的模型结构提取方法及装置。本发明首先“跟踪/记录”模型上的所有操作,并进一步提取模型计算图节点信息和连接关系,生成模型计算图树形结构。然后基于深度学习模型计算图信息,确定模型结构图中需要保留的层级名称,过滤基本层节点的子节点以及容器节点,同时删除相关的连接边。最后,基于美观性、易交互性和可读性为目标求解图布局方式。本发明不需要借助其他数据信息,完全基于深度神经网络计算图数据信息过滤结构图数据,解决了结构图难以获取的问题。同时,由于仅仅过滤了计算图中不重要节点,因而完整地保留了深度学习模型的主要结构信息。

    一种模型训练方法、装置、设备及可读存储介质

    公开(公告)号:CN116468096A

    公开(公告)日:2023-07-21

    申请号:CN202310362160.X

    申请日:2023-03-30

    Abstract: 本说明书公开了一种模型训练方法、装置、设备及可读存储介质,基于共同发起业务的关系构建第一训练样本组,基于各用户针对各业务的指定行为构建第二训练样本组。根据各用户的言论文本、各业务、第一训练样本组和第二训练样本组训练特征提取模型,之后,根据训练完成的特征提取模型、所述第三训练样本和所述第三训练样本的标注,训练待训练的预测模型。可见,通过构建第一训练样本组和第二训练样本组,结合用户的言论文本以训练特征提取模型的方案,针对用户从未执行过的业务,也可以有效地从用户的言论文本中提取得到用于表征用户对于执行不同类型的业务的态度和立场的用户特征,从而提高预测准确率。

Patent Agency Ranking