基于卷积神经网络快速鲁棒的图像目标检测与分割方法

    公开(公告)号:CN109977997A

    公开(公告)日:2019-07-05

    申请号:CN201910113339.5

    申请日:2019-02-13

    IPC分类号: G06K9/62 G06N3/04 G06T7/10

    摘要: 本发明属于计算机视觉领域,具体涉及了一种基于卷积神经网络快速鲁棒的图像目标检测与分割方法,旨在解决图像目标检测与分割精度低、效率差的问题。本发明方法包括:采用深层卷积神经网络将获取的待处理图像生成多尺度特征图组;进行迭代反馈融合,获得融合特征图组;基于融合特征图组中各特征之间的互补关系,获取多个包围框以及包围框在待处理图像上的位置;根据前景概率、条件类别概率计算包围框属于各个类别的后验概率并调整包围框;依据包围框在待处理图像上的位置,进行待处理图像的目标检测与分割。本发明方法具有较强的特征表达能力,可以克服复杂环境下目标存在的巨大差异性,具有较高的处理速度,并准确得到检测与分割结果。

    基于卷积神经网络快速鲁棒的图像目标检测与分割方法

    公开(公告)号:CN109977997B

    公开(公告)日:2021-02-02

    申请号:CN201910113339.5

    申请日:2019-02-13

    IPC分类号: G06K9/62 G06N3/04 G06T7/10

    摘要: 本发明属于计算机视觉领域,具体涉及了一种基于卷积神经网络快速鲁棒的图像目标检测与分割方法,旨在解决图像目标检测与分割精度低、效率差的问题。本发明方法包括:采用深层卷积神经网络将获取的待处理图像生成多尺度特征图组;进行迭代反馈融合,获得融合特征图组;基于融合特征图组中各特征之间的互补关系,获取多个包围框以及包围框在待处理图像上的位置;根据前景概率、条件类别概率计算包围框属于各个类别的后验概率并调整包围框;依据包围框在待处理图像上的位置,进行待处理图像的目标检测与分割。本发明方法具有较强的特征表达能力,可以克服复杂环境下目标存在的巨大差异性,具有较高的处理速度,并准确得到检测与分割结果。

    特定目标检测模型训练程序、设备及计算机可读存储介质

    公开(公告)号:CN109492522A

    公开(公告)日:2019-03-19

    申请号:CN201811081113.3

    申请日:2018-09-17

    IPC分类号: G06K9/00 G06K9/62

    摘要: 本发明公开了一种特定目标检测模型训练程序、设备及计算机可读存储介质,主要步骤包括:利用特定场景的人工场景产生大规模的虚拟数据,来训练行人检测模型,并将训练后的模型作为初始模型应用到实际场景中;根据实际场景的光线等因素的变化,在人工场景中调节相应的参数,使得人工场景与实际场景保持一致,收集更多的虚拟数据,微调更新行人检测模型,使之适应于动态变化的实际场景;根据实际场景的背景变化程度来决定是否更新行人检测模型,如果实际场景的背景图像发生较大变化就更新模型,否则暂不更新模型,继续累积虚拟数据。

    基于多视角学习的鲁棒性前景检测方法

    公开(公告)号:CN104766065A

    公开(公告)日:2015-07-08

    申请号:CN201510174979.9

    申请日:2015-04-14

    IPC分类号: G06K9/00 G06K9/46

    摘要: 本发明提供的基于多视角学习的鲁棒性前景检测方法,包括:将输入视频通过时域中值滤波方法获取参考背景图像,对当前图像和所述参考背景图像进行迭代搜索和多尺度融合获取异类特征;利用所述异类特征的条件独立性计算前景类的条件概率密度和背景类的条件概率密度,并且根据前景似然、背景似然和先验概率利用贝叶斯规则计算前景的后验概率和背景的后验概率;通过所述前景的后验概率、所述背景的后验概率和时空一致性约束构建马尔科夫随机场模型的能量函数,利用置信传播算法将所述能量函数最小化得到前景和背景的分割结果。本发明可以在复杂挑战环境下,实现鲁棒性前景检测。

    视频系统参数动态标定方法及系统

    公开(公告)号:CN101052121A

    公开(公告)日:2007-10-10

    申请号:CN200610011727.5

    申请日:2006-04-05

    IPC分类号: H04N7/18

    摘要: 本发明涉及计算机领域,提供一种视频系统参数动态标定方法及系统。标定步骤包括:获取视频场景中的标定目标;获取视频系统参数和标定目标的图像信息;标定所述视频系统的内、外参数;校正视频系统参数。标定系统包括摄像机系统、视频近距传输系统、视频处理系统、视频远程传输系统、监控中心系统、参数传递系统。本发明能实时的或定期的在视频监控场景下,对视频系统参数进行动态标定,能够准确计算视频监控场景下视频系统参数,确保视频场景中感兴趣物体的测量准确性。本发明根据需要能实时的或定期的更新视频场景中视频系统参数,应用各种视频的场合,尤其是对无人能到达的视频场景的监测起到了很好的作用。

    基于动态耦合条件随机场的目标区域跟踪方法

    公开(公告)号:CN104751492B

    公开(公告)日:2017-10-27

    申请号:CN201510182218.8

    申请日:2015-04-17

    IPC分类号: G06T7/20 G06T7/10

    摘要: 本发明提供一种基于动态耦合条件随机场的目标区域跟踪方法,包括:提取待跟踪目标区域的密集光流信息和像素颜色信息,建立光流和颜色的混合高斯模型,获得待跟踪目标区域的运动和外观模型;建立分别对应于跟踪和分割的动态条件随机场并进行耦合从而得到动态耦合条件随机场,获取观测特征并结合图像序列中的时空上下文信息,建立图模型的能量函数;进行图模型参数学习,通过求解动态耦合条件随机场的最小化能量函数并进行匹配确定当前的目标区域。本发明所述目标区域跟踪方法具有较高的准确性和鲁棒性,可应用于智能视频监控领域。

    一种基于极值区域和极限学习机的车牌识别方法

    公开(公告)号:CN104134079B

    公开(公告)日:2017-06-16

    申请号:CN201410374155.1

    申请日:2014-07-31

    IPC分类号: G06K9/66

    摘要: 本发明公开了一种基于极值区域和极限学习机的车牌识别方法,该方法包括步骤:对彩色待处理图像进行预处理,对其中的车牌区域进行粗定位,得到多个车牌候选区域;基于车牌候选区域,在彩色待处理图像中提取RGB三个颜色通道的极值区域,通过分类器从中选择符合车牌字符区域几何属性的极值区域,获得车牌字符区域;通过监督学习建立基于极限学习机的单隐层前馈神经网络,提取字符区域的特征向量作为输入,利用神经网络对车牌字符进行自动识别。本发明方法具有速度快、精度高等优点,特别是在复杂交通环境中,能够很好地应对复杂背景、天气变化、光照影响等不利因素。本发明克服了传统车牌识别方法在实时性和鲁棒性方面的不足,具有显著的应用价值。