文本行的定位方法及装置

    公开(公告)号:CN106156711A

    公开(公告)日:2016-11-23

    申请号:CN201510190211.0

    申请日:2015-04-21

    IPC分类号: G06K9/00 G06K9/46

    摘要: 本发明公开一种文本行的定位方法及装置,属于计算机视觉技术领域。该方法包括:提取待检测图像中各个像素的至少包括对称性特征向量的特征向量;根据每个像素的特征向量,确定多个潜在位于文本行对称轴上的目标像素,位于文本行对称轴上的像素具有对称性;对各个目标像素进行聚合,得到多个候选文本行区域;滤除非文本行区域得到文本行区域。由于待检测图像中的文本行区域通常具有对称性,因此,基于提取待检测图像中每个像素的对称性特征向量,能够从自然图像中直接定位到待检测图像中的文本行区域,而无需对各个候选字符区域进行组合以得到文本行区域,不仅方式简单,而且不依赖于自然图像中的连通区域,扩大了文本行定位方式的适用范围。

    文本行的定位方法及装置

    公开(公告)号:CN106156711B

    公开(公告)日:2020-06-30

    申请号:CN201510190211.0

    申请日:2015-04-21

    IPC分类号: G06K9/00 G06K9/46

    摘要: 本发明公开一种文本行的定位方法及装置,属于计算机视觉技术领域。该方法包括:提取待检测图像中各个像素的至少包括对称性特征向量的特征向量;根据每个像素的特征向量,确定多个潜在位于文本行对称轴上的目标像素,位于文本行对称轴上的像素具有对称性;对各个目标像素进行聚合,得到多个候选文本行区域;滤除非文本行区域得到文本行区域。由于待检测图像中的文本行区域通常具有对称性,因此,基于提取待检测图像中每个像素的对称性特征向量,能够从自然图像中直接定位到待检测图像中的文本行区域,而无需对各个候选字符区域进行组合以得到文本行区域,不仅方式简单,而且不依赖于自然图像中的连通区域,扩大了文本行定位方式的适用范围。

    一种基于全卷积网络的多方向文本检测方法

    公开(公告)号:CN105608456A

    公开(公告)日:2016-05-25

    申请号:CN201510989079.X

    申请日:2015-12-22

    IPC分类号: G06K9/32

    CPC分类号: G06K9/3258 G06K2209/01

    摘要: 本发明公开了一种基于全卷积网络的多方向文本检测方法,首先获取训练数据集中的文本块,并训练全卷积网络模型;然后利用训练好的全卷积网络模型对测试数据集中的图片进行检测,获取文本块;然后提取文本块的字符成分,并根据字符成分的位置信息估算图像中的候选文本条位置;最后训练针对文本条中字符成分的全卷积网络模型,利用训练好的模型对候选文本条进行检测,获取其中的字符成分,根据字符成分过滤掉不需要的文本条,得到图像中文本条的位置。本发明方法文本检测方法检测率高,且能够克服光照、遮挡、模糊等不利因素的影响。

    一种基于全卷积网络的多方向文本检测方法

    公开(公告)号:CN105608456B

    公开(公告)日:2017-07-18

    申请号:CN201510989079.X

    申请日:2015-12-22

    IPC分类号: G06K9/32

    摘要: 本发明公开了一种基于全卷积网络的多方向文本检测方法,首先获取训练数据集中的文本块,并训练全卷积网络模型;然后利用训练好的全卷积网络模型对测试数据集中的图片进行检测,获取文本块;然后提取文本块的字符成分,并根据字符成分的位置信息估算图像中的候选文本条位置;最后训练针对文本条中字符成分的全卷积网络模型,利用训练好的模型对候选文本条进行检测,获取其中的字符成分,根据字符成分过滤掉不需要的文本条,得到图像中文本条的位置。本发明方法文本检测方法检测率高,且能够克服光照、遮挡、模糊等不利因素的影响。