基于语义强化编码器解码器框架的场景文字识别方法及系统

    公开(公告)号:CN111753827A

    公开(公告)日:2020-10-09

    申请号:CN202010416704.2

    申请日:2020-05-15

    Abstract: 本发明提供一种基于语义强化编码器解码器框架的场景文字识别方法及系统,将目标图像上的任意形状的文本矫正为水平文本,得到矫正后的图像;将矫正后的图像输入到卷积神经网络中提取视觉特征,利用循环神经网络从该视觉特征中提取序列信息;根据序列信息预测全局语义信息;利用上述全局语义信息初始化一基于注意力机制的门控循环单元GRU的状态,根据上述视觉特征与GRU每一个解码时间的隐状态计算注意力权重,根据该注意力权重对上述视觉特征进行加权,预测出图像上的每一个字符。能够有效地利用全局信息填补现有方法使用局部信息的不足,同时减小视觉信息与语义信息之间的鸿沟,从而使模型能够更好地处理低质量的图像。

    一种基于语义敏感的网络协议识别方法及系统

    公开(公告)号:CN104468262A

    公开(公告)日:2015-03-25

    申请号:CN201410652834.0

    申请日:2014-11-17

    Abstract: 本发明涉及一种基于语义敏感的网络协议识别方法及系统。在建模阶段,以特定应用协议的网络数据报文集合作为输入,利用Latent Dirichlet Allocation方法构建所分析协议的关键字模型;在训练阶段,依照协议关键字模型提取数据报文的分类特征信息,以获得的关键字特征向量作为输入,利用有监督机器学习方法对离线训练数据集学习训练,获得所分析协议的分类模型;在分类阶段,依照协议关键字模型提取数据报文的分类特征信息,利用协议分类模型对待测网络数据报文的协议属性做出判别,判断其是否属于目标协议的网络数据报文。本发明能够充分挖掘网络消息报文中潜在的协议语义信息,对多种网络协议进行有效的协议识别。

    一种用户隐私信息保护方法及系统

    公开(公告)号:CN103716313A

    公开(公告)日:2014-04-09

    申请号:CN201310722437.1

    申请日:2013-12-24

    Abstract: 本发明涉及一种用户隐私信息保护方法,包括以下步骤:步骤1:钩取模块接收接口调用操作,获取基本接口信息,采用重定向过滤方法,对可能访问敏感信息操作进行过滤分析;步骤2:解析模块接收终端设备发送的运行日志数据信息,并调用接口调用数据库中的信息,记录敏感操作的操作日志;步骤3:检测模块对可疑行为操作数据库中的信息进行处理,基于黑名单数据库中的信息,筛选出窃密操作,并将所述窃密操作行为信息存储到黑名单数据库中;步骤4:根据黑名单数据库中的窃密操作行为信息处理窃密操作。本发明能够监控窃密行为,发现潜在的窃密威胁,并阻断其操作;监测敏感信息流转;能够全面监控、保护用户隐私数据。

    具有场景文字的图像生成方法
    24.
    发明公开

    公开(公告)号:CN119579733A

    公开(公告)日:2025-03-07

    申请号:CN202411423694.X

    申请日:2024-10-12

    Abstract: 本发明涉及计算机技术领域,具体为具有场景文字的图像生成方法。本发明通过获取文本描述;基于文本描述获得背景图像、待生成文字和文本区域;基于所述背景图像通过自适应本文块探索策略得到局部图像;通过所述待生成文字得到文字图像;基于所述局部图像和文字图像得到条件嵌入;基于所述文本区域建立图像指导;将所述条件嵌入和所述图像指导输入卷积神经网络得到解码图像;所述解码图像中文字生成由所述待生成文字和所述文本区域确定。解决了图像生成时小文字生成的问题并提高文字生成的准确率,使得图像生成时小文本渲染效果优良。

    基于单目标重放的增量目标检测方法及装置

    公开(公告)号:CN116051901A

    公开(公告)日:2023-05-02

    申请号:CN202310102438.X

    申请日:2023-01-31

    Abstract: 本发明公开了一种基于单目标重放的增量目标检测方法及装置,所述方法包括获取旧目标检测器、旧图像训练集中的旧类目标切片图像、新目标检测器、新图像训练集和待检测图像;将旧图像中的旧类目标切片图像和新图像合成,得到合成图像;使用新图像中的新类目标对旧类目标在旧目标检测器中的原始特征进行增广,得到增广特征;基于L1蒸馏损失、交叉熵分类损失、分类损失和回归损失对新目标检测器进行优化训练,以得到训练后的新目标检测器;将所述待检测图像送入训练后的新目标检测器,得到目标检测结果。本发明可以减少旧样本的存储空间,并达到与重放整张图像相当的性能。

    基于完形填空任务的视频自监督学习方法

    公开(公告)号:CN111091157B

    公开(公告)日:2023-03-10

    申请号:CN201911348018.X

    申请日:2019-12-24

    Abstract: 本发明提出一种基于完形填空任务的视频自监督学习方法,属于数字化视频自监督领域,通过切分视频段,对选取视频段进行空间或/和时间的变换操作,再放回原视频中提取特征,进行变换操作的分类识别,由此实现自监督学习,通过这种完形填空的方式,在不需要人工标注数据的同时,引导网络学习丰富的视频特征,同时基于完形填空的特性,可以针对不同的特征融合多个自监督任务,增加了泛化性。

    基于全卷积角点修正网络的多向场景文字检测方法及装置

    公开(公告)号:CN113095319B

    公开(公告)日:2022-11-15

    申请号:CN202110235490.3

    申请日:2021-03-03

    Abstract: 本发明公开了一种基于全卷积角点修正网络的多向场景文字检测方法及装置,包括:依据图片的视觉特征,获取融合特征;根据融合特征,分别得到初始特征、初始分数与初始包围框偏移;将初始包围框偏移进行线性变换,得到角点感知卷积的采样网格,并依据该采样网格,对初始特征进行卷积,产生角点感知特征;依据角点感知特征,获取修正分数与修正包围框偏移;根据初始包围框偏移、修正包围框偏移及预定义参考点进行解码运算,获取修正包围框,从而得到多向场景文字检测结果。本发明利用多向场景文本的几何特性进行特征采样,通过角点感知的卷积模块,扩大了有效感受野且没有冗余信息引入,解决了密集长文本和高质量检测的问题,获取更优秀的性能。

    一种基于密集语义对比的自监督视觉模型预训练方法

    公开(公告)号:CN113989582A

    公开(公告)日:2022-01-28

    申请号:CN202110988818.9

    申请日:2021-08-26

    Abstract: 本发明公开了一种基于密集语义对比的自监督视觉模型预训练方法,其步骤包括:1)对于样本图像xi,利用数据增强方法a、b分别对样本图像xi增强后进行特征提取和映射,得到样本图像xi中每一个像素点pi的特征,即像素级特征以及实例级特征2)基于和进行对比学习,得到实例判别损失Lins;基于和进行对比学习,得到像素判别损失Lpix;3)根据像素点pi对应的正样本集计算邻居判别损失Lnei;4)对像素级特征集合va、vb分别执行聚类,分别获得K个聚类集群;然后对每个集群进行对比学习,计算聚类对比损失LKM;5)根据损失函数L=Lins+Lpix+Lsem对自监督视觉模型进行端到端的训练。

Patent Agency Ranking