-
公开(公告)号:CN111460927B
公开(公告)日:2024-04-09
申请号:CN202010186069.3
申请日:2020-03-17
IPC分类号: G06V30/412 , G06V30/413 , G06V30/14 , G06T7/11 , G06T7/136
摘要: 本发明提供了一种对带表格的图像进行结构化信息提取的方法。该方法包括:提取带表格的图像中的表格区域,对表格区域进行单元格分割;对单元格进行文本行检测和归类;对文本行进行单字分割并识别单字内容,拼接得到文本行内容,根据所述文本行的内容和所述表格区域的单元格分割结果得到所述带表格的图像中的结构化信息。本发明实施例的方法可以有效地提取出房产证图像等带表格的图像中的表格区域、文本行中的单字以及结构化信息。本发明可以帮助人们在进行二手房交易、房产证抵押、贷款买车、落户、适龄儿童入学、出国旅游办签证等行为时,实现自动化的业务流程。
-
公开(公告)号:CN111414906A
公开(公告)日:2020-07-14
申请号:CN202010145278.3
申请日:2020-03-05
申请人: 北京交通大学
摘要: 本发明提供了一种纸质票据图片的数据合成与文本识别方法。该方法包括:去除纸质票据图片中的前景文字,获得纸质票据图片的背景图片,并记录纸质票据图片中的文字区域的坐标信息;利用预先收集的词库生成要合成的纸质票据中的字段对应的白底文本图片;根据字段在纸质票据中对应的位置和纸质票据图片中的文字区域的坐标信息,将字段的白底文本图片覆盖在所述背景图片上,得到合成的纸质票据图片;将一定数量的合成的纸质票据图片数据作为训练集,利用训练集采用权重CTC-Loss损失函数对CRNN模型进行训练,利用训练好的CRNN模型对待识别的纸质票据进行文本识别。本发明可以有效地识别出火车票等纸质票据图片中的文本,提高模型对指定位置字符的识别精度。
-
公开(公告)号:CN110503354B
公开(公告)日:2021-11-23
申请号:CN201910591425.7
申请日:2019-07-02
申请人: 北京交通大学
摘要: 本发明涉及一种基于深度学习的RFID标签位置估计方法,包括CNN网络模型训练方法以及基于深度学习的RFID标签位置估计算法使用方法:CNN网络模型训练方法包括:S11,输入训练数据集;S12,进行数据预处理操作;S13,构建并训练CNN网络模型;S14,输出CNN网络模型的参数;基于深度学习的RFID标签位置估计算法使用方法包括:S21,输入实际采样数据;S22,对输入的实际采样数据进行预处理操作;S23,利用网络模型进行位置估计;S24,利用CNN网络模型对RFID标签位置估计结果。本发明能识别出RFID标签在传送带上的相对位置,实现对多个标签先后次序的准确估计,为自动分拣提供可靠的信息。
-
公开(公告)号:CN111460927A
公开(公告)日:2020-07-28
申请号:CN202010186069.3
申请日:2020-03-17
摘要: 本发明提供了一种对带表格的图像进行结构化信息提取的方法。该方法包括:提取带表格的图像中的表格区域,对表格区域进行单元格分割;对单元格进行文本行检测和归类;对文本行进行单字分割并识别单字内容,拼接得到文本行内容,根据所述文本行的内容和所述表格区域的单元格分割结果得到所述带表格的图像中的结构化信息。本发明实施例的方法可以有效地提取出房产证图像等带表格的图像中的表格区域、文本行中的单字以及结构化信息。本发明可以帮助人们在进行二手房交易、房产证抵押、贷款买车、落户、适龄儿童入学、出国旅游办签证等行为时,实现自动化的业务流程。
-
公开(公告)号:CN110503354A
公开(公告)日:2019-11-26
申请号:CN201910591425.7
申请日:2019-07-02
申请人: 北京交通大学
摘要: 本发明涉及一种基于深度学习的RFID标签位置估计方法,包括CNN网络模型训练方法以及基于深度学习的RFID标签位置估计算法使用方法:CNN网络模型训练方法包括:S11,输入训练数据集;S12,进行数据预处理操作;S13,构建并训练CNN网络模型;S14,输出CNN网络模型的参数;基于深度学习的RFID标签位置估计算法使用方法包括:S21,输入实际采样数据;S22,对输入的实际采样数据进行预处理操作;S23,利用网络模型进行位置估计;S24,利用CNN网络模型对RFID标签位置估计结果。本发明能识别出RFID标签在传送带上的相对位置,实现对多个标签先后次序的准确估计,为自动分拣提供可靠的信息。
-
公开(公告)号:CN107389697B
公开(公告)日:2019-08-30
申请号:CN201710558215.9
申请日:2017-07-10
申请人: 北京交通大学
IPC分类号: G01N21/95
摘要: 本发明提出了一种基于半交互式的裂缝检测方法,主要是为了解决目前裂缝检测领域中的裂缝检测方法的鲁棒性问题和高精度需求,并切实地应用于各种实际场景。该方法基于交互式种子点选取和裂缝走势预测进行裂缝检测,不仅能有效消除噪声、光照,背景复杂等不利因素的影响,并且对图像成像质量要求低,对图像采集环境具有自适应能力,具有普适性。本发明还能简单扩展到其它相似特征的场合,比如医学领域中毛细血管的检测等。
-
公开(公告)号:CN107389697A
公开(公告)日:2017-11-24
申请号:CN201710558215.9
申请日:2017-07-10
申请人: 北京交通大学
IPC分类号: G01N21/95
摘要: 本发明提出了一种基于半交互式的裂缝检测方法,主要是为了解决目前裂缝检测领域中的裂缝检测方法的鲁棒性问题和高精度需求,并切实地应用于各种实际场景。该方法基于交互式种子点选取和裂缝走势预测进行裂缝检测,不仅能有效消除噪声、光照,背景复杂等不利因素的影响,并且对图像成像质量要求低,对图像采集环境具有自适应能力,具有普适性。本发明还能简单扩展到其它相似特征的场合,比如医学领域中毛细血管的检测等。
-
公开(公告)号:CN111414906B
公开(公告)日:2024-05-24
申请号:CN202010145278.3
申请日:2020-03-05
申请人: 北京交通大学
IPC分类号: G06V30/19 , G06V30/146 , G06V30/148 , G06V10/764 , G06V10/82 , G06N3/044 , G06N3/0464 , G06N3/08
摘要: 本发明提供了一种纸质票据图片的数据合成与文本识别方法。该方法包括:去除纸质票据图片中的前景文字,获得纸质票据图片的背景图片,并记录纸质票据图片中的文字区域的坐标信息;利用预先收集的词库生成要合成的纸质票据中的字段对应的白底文本图片;根据字段在纸质票据中对应的位置和纸质票据图片中的文字区域的坐标信息,将字段的白底文本图片覆盖在所述背景图片上,得到合成的纸质票据图片;将一定数量的合成的纸质票据图片数据作为训练集,利用训练集采用权重CTC‑Loss损失函数对CRNN模型进行训练,利用训练好的CRNN模型对待识别的纸质票据进行文本识别。本发明可以有效地识别出火车票等纸质票据图片中的文本,提高模型对指定位置字符的识别精度。
-
公开(公告)号:CN106446881B
公开(公告)日:2019-05-21
申请号:CN201610617483.9
申请日:2016-07-29
申请人: 北京交通大学
IPC分类号: G06K9/20
摘要: 本发明提供了一种从医疗化验单图像中提取化验结果信息的方法。该方法主要包括:基于医疗化验单的表格特点,从医疗化验单的原始图像中提取出所述医疗化验单的表格区域;采用垂直投影方法对所述医疗化验单的表格区域中的各个栏进行分离,提取出需要的信息栏;从所述信息栏中分割出文本行;采用垂直投影方法对所述文本行进行分割,得到字符块,从所述字符块中提取出化验字符信息。本发明通过从医疗化验单数字图像中分割出表格区域,继而在表格区域中提取出有用的化验字符信息,可以有效地对医疗化验单图像进行化验信息识别。本发明的方法简单有效,可操作性强,特别适用于在PAD和手机等移动终端实施。
-
公开(公告)号:CN106228166B
公开(公告)日:2019-05-21
申请号:CN201610603330.9
申请日:2016-07-27
申请人: 北京交通大学
摘要: 本发明提供了一种字符图像的识别方法。该方法主要包括:对原始字符图像Image进行归一化处理得到浮点型图像矩阵ImageSquare;使用多个滤波核对浮点型图像矩阵ImageSquare进行卷积运算,得到包含不同纹理特征的一组图像矩阵ImageDst;获取原始字符图像Image对应的特征向量Features,从一组图像矩阵ImageDst中提取出多层特征,将多层特征设置到特征向量Features中,得到数据样本;使用具有级联关系的多层次的分类器对数据样本进行逐层分类处理,识别出原始字符图像Image中的字符。本发明基于图像分类的思想,利用SVM分类器设计了一种多层次的级联分类器模型,实现了一种先归类后识别的逐级识别方法,一定程度上减少了单层分类器的类别数目,从而提升了识别准确率。本发明的方法简洁,可操作性强。
-
-
-
-
-
-
-
-
-