利用语义空间信息的针对少量训练数据的图像分类方法

    公开(公告)号:CN107491782B

    公开(公告)日:2020-11-20

    申请号:CN201710603221.1

    申请日:2017-07-22

    申请人: 复旦大学

    IPC分类号: G06K9/62 G06N3/04

    摘要: 本发明属于计算机图像处理技术领域,具体为利用语义空间信息的针对少量训练数据的图像分类方法。本发明利用语义空间信息联合自动编码器来扩增数据,从而在少量样本情况下获得更多有效的样本;利用这些扩增的数据训练一个基于深度神经网络的分类器;再将分类器网络与特征提取网络连接在一起训练,获得一个端到端的神经网络,实现给定一张图片,直接输出分类信息的功能。本发明使用数据扩增的方法来增加所拥有的数据,从而使得训练深度神经网络变的更加有效;算法是端到端的神经网络,所以只需要给出一张图片,就可以给出相应的分类结果。

    利用语义空间信息的针对少量训练数据的图像分类方法

    公开(公告)号:CN107491782A

    公开(公告)日:2017-12-19

    申请号:CN201710603221.1

    申请日:2017-07-22

    申请人: 复旦大学

    IPC分类号: G06K9/62 G06N3/04

    摘要: 本发明属于计算机图像处理技术领域,具体为利用语义空间信息的针对少量训练数据的图像分类方法。本发明利用语义空间信息联合自动编码器来扩增数据,从而在少量样本情况下获得更多有效的样本;利用这些扩增的数据训练一个基于深度神经网络的分类器;再将分类器网络与特征提取网络连接在一起训练,获得一个端到端的神经网络,实现给定一张图片,直接输出分类信息的功能。本发明使用数据扩增的方法来增加所拥有的数据,从而使得训练深度神经网络变的更加有效;算法是端到端的神经网络,所以只需要给出一张图片,就可以给出相应的分类结果。

    一种基于自监督学习任务的手绘草图理解深度学习方法

    公开(公告)号:CN113673635B

    公开(公告)日:2023-09-01

    申请号:CN202010411459.6

    申请日:2020-05-15

    申请人: 复旦大学

    摘要: 本发明提供了一种基于自监督学习任务的手绘草图理解深度学习方法,其特征在于,包括如下步骤:步骤S1,基于不同的手绘草图中点的数据的分类对其中部分数据进行抹除,进一步将抹除部分数据后的手绘草图的数据用于自监督学习;步骤S2,将手绘草图的数据序列化后嵌入编码;步骤S3,将基于双向编码表示和自注意力机制的深度学习网络作为深度特征提取模块,并利用该深度特征提取模块提取手绘草图对应的点数据的深度特征;步骤S4,利用提取的深度特征预测被抹除的部分数据的坐标数据和状态数据;步骤S5,使用损失函数分别对坐标数据的预测与状态数据的预测任务进行训练从而获得训练好的网络模型。

    一种用于小样本甲骨文识别的数据增广方法、应用及装置

    公开(公告)号:CN114708473A

    公开(公告)日:2022-07-05

    申请号:CN202011492114.4

    申请日:2020-12-17

    申请人: 复旦大学

    摘要: 本发明提供了一种用于小样本甲骨文识别的数据增广方法、应用及装置,其特征在于,包括如下步骤:对大样本数据、小样本数据序列化得到序列化大样本数据、序列化小样本数据;对序列化大样本数据抹除得到抹除大样本数据、完整大样本数据,对抹除大样本数据编码得到编码后抹除大样本数据;将编码后抹除大样本数据输入特征提取网络得到深度特征;利用预测网络对抹除大样本数据预测得到预测大样本数据;训练更新深度学习网络得到增广器;对序列化小样本数据随机抹除得到抹除小样本数据,并对抹除小样本数据编码得到编码后抹除小样本数据;将编码后抹除小样本数据输入增广器预测得到预测小样本数据,将该预测小样本数据作为增广样本。

    一种基于自监督学习任务的手绘草图理解深度学习方法

    公开(公告)号:CN113673635A

    公开(公告)日:2021-11-19

    申请号:CN202010411459.6

    申请日:2020-05-15

    申请人: 复旦大学

    摘要: 本发明提供了一种基于自监督学习任务的手绘草图理解深度学习方法,其特征在于,包括如下步骤:步骤S1,基于不同的手绘草图中点的数据的分类对其中部分数据进行抹除,进一步将抹除部分数据后的手绘草图的数据用于自监督学习;步骤S2,将手绘草图的数据序列化后嵌入编码;步骤S3,将基于双向编码表示和自注意力机制的深度学习网络作为深度特征提取模块,并利用该深度特征提取模块提取手绘草图对应的点数据的深度特征;步骤S4,利用提取的深度特征预测被抹除的部分数据的坐标数据和状态数据;步骤S5,使用损失函数分别对坐标数据的预测与状态数据的预测任务进行训练从而获得训练好的网络模型。