一种基于压缩感知和生成对抗的鱼类图像生成方法

    公开(公告)号:CN116188259B

    公开(公告)日:2024-07-23

    申请号:CN202211572022.6

    申请日:2022-12-08

    IPC分类号: G06F30/27

    摘要: 本发明涉及一种基于压缩感知和生成对抗的鱼类图像生成方法,属于计算机视觉与深度学习技术领域,步骤包括:步骤1,基于高分辨率鱼类数据集训练压缩感知神经网络,获得低维观测信号和重构映射;步骤2,基于上述低维观测信号训练生成对抗网络,获得低维观测信号的生成器;步骤3,利用上述生成器,向生成器中输入噪声产生新的低维观测信号,利用上述重构映射将生成的低维观测信号重构为生成的高分辨率鱼类图片。本发明中生成器的输入为服从高斯分布的随机噪声,不需要从高维数据集中获得,因此本发明中获得的生成器可以将任意服从高斯分布的噪声生成为高清鱼类图像。且本发明可以生成与原始数据集服从同一分布而更加多样的不同高清鱼类图像。

    一种基于压缩感知和生成对抗的鱼类图像生成方法

    公开(公告)号:CN116188259A

    公开(公告)日:2023-05-30

    申请号:CN202211572022.6

    申请日:2022-12-08

    摘要: 本发明涉及一种基于压缩感知和生成对抗的鱼类图像生成方法,属于计算机视觉与深度学习技术领域,步骤包括:步骤1,基于高分辨率鱼类数据集训练压缩感知神经网络,获得低维观测信号和重构映射;步骤2,基于上述低维观测信号训练生成对抗网络,获得低维观测信号的生成器;步骤3,利用上述生成器,向生成器中输入噪声产生新的低维观测信号,利用上述重构映射将生成的低维观测信号重构为生成的高分辨率鱼类图片。本发明中生成器的输入为服从高斯分布的随机噪声,不需要从高维数据集中获得,因此本发明中获得的生成器可以将任意服从高斯分布的噪声生成为高清鱼类图像。且本发明可以生成与原始数据集服从同一分布而更加多样的不同高清鱼类图像。

    面向跨场景的机器人视觉模仿学习方法及系统

    公开(公告)号:CN111300431B

    公开(公告)日:2021-04-23

    申请号:CN202010241696.2

    申请日:2020-03-31

    申请人: 山东大学

    IPC分类号: B25J9/16 B25J13/08 B25J19/04

    摘要: 本公开公开了面向跨场景的机器人视觉模仿学习方法及系统,将给定来自原始语境的观察图像转换为预测的目标观察图像,即将视觉演示从演示者的语境转换到机器人所在语境,完成语境转换;基于初始深度观察图像来预测目标深度观察图像;针对获取到多模态的初始观察和目标观察,使用深度神经网络来构建逆动态模型,利用逆动态模型来输出预测动作,完成模仿学习。本公开语境转换模块负责将来自不同语境的视觉演示转换到机器人所在语境。本公开多模态逆动态模型负责将多模输入映射为动作来复现演示中动作,以颜色和深度观察信息作为输入,并将其映射为动作,从而实现根据演示进行模仿。

    基于注意力机制的无线室内定位方法及系统

    公开(公告)号:CN109756842B

    公开(公告)日:2020-05-08

    申请号:CN201910129515.4

    申请日:2019-02-21

    申请人: 山东大学

    IPC分类号: H04W4/02 H04W4/33 H04W64/00

    摘要: 本发明公开了一种基于注意力机制的无线室内定位方法及系统,定位精度高。该方法包括以下步骤:在室内布置多个带有Ibeacon信标的信标节点和多个位置已知的参考节点;连续采集多时刻各个参考节点与所有信标节点之间的RSSI值,将各个参考节点每时刻对应的RSSI值进行排序,组成各个参考节点每时刻对应的RSSI值序列;利用时间卷积网络模型对各个参考节点每时刻对应的RSSI值序列进行训练,得到每个参考节点的概率序列;对所有参考节点的概率序列进行加权处理,得到最终的定位位置。

    输电线路小目标缺陷检测的方法及系统

    公开(公告)号:CN114612742B

    公开(公告)日:2024-08-02

    申请号:CN202210233188.9

    申请日:2022-03-09

    申请人: 山东大学

    摘要: 本发明公开了一种输电线路小目标缺陷检测的方法及系统,包括:获取输电线路图像数据并进行预处理;将预处理后的图像数据输入至训练好的第一阶段目标检测模型,得到包含目标对象的多个关键区域,将得到的关键区域按照设定的原则重新组合排列,形成新的图像;将新的图像输入至训练好的第二阶段目标检测模型,得到目标缺陷识别结果。本发明通过第一阶段目标检测模型先定位到关键区域,并将关键区域按照一定的规律进行重新提取并按比例重新分配位置;由于保留了原始图像的像素信息,因此不存在信息的缺失,为第二阶段的检测提供了非常好的样本。

    基于注意力机制的无线室内定位方法及系统

    公开(公告)号:CN109756842A

    公开(公告)日:2019-05-14

    申请号:CN201910129515.4

    申请日:2019-02-21

    申请人: 山东大学

    IPC分类号: H04W4/02 H04W4/33 H04W64/00

    摘要: 本发明公开了一种基于注意力机制的无线室内定位方法及系统,定位精度高。该方法包括以下步骤:在室内布置多个带有Ibeacon信标的信标节点和多个位置已知的参考节点;连续采集多时刻各个参考节点与所有信标节点之间的RSSI值,将各个参考节点每时刻对应的RSSI值进行排序,组成各个参考节点每时刻对应的RSSI值序列;利用时间卷积网络模型对各个参考节点每时刻对应的RSSI值序列进行训练,得到每个参考节点的概率序列;对所有参考节点的概率序列进行加权处理,得到最终的定位位置。

    基于深度强化学习的视觉导航方法及系统

    公开(公告)号:CN109682392B

    公开(公告)日:2020-09-01

    申请号:CN201811622803.5

    申请日:2018-12-28

    申请人: 山东大学

    摘要: 本公开公开了基于深度强化学习的视觉导航方法及系统,包括:随机初始化机器人的起始位置并设定目标位置的图像,然后将起始位置的实际图像与目标位置的实际图像均输入到训练好的基于A3C算法的神经网络,根据基于A3C算法的神经网络输出的概率分布,选择概率最大值对应的动作作为机器人的下一个执行动作,直到机器人到达目标位置。

    基于深度强化学习的视觉导航方法及系统

    公开(公告)号:CN109682392A

    公开(公告)日:2019-04-26

    申请号:CN201811622803.5

    申请日:2018-12-28

    申请人: 山东大学

    摘要: 本公开公开了基于深度强化学习的视觉导航方法及系统,包括:随机初始化机器人的起始位置并设定目标位置的图像,然后将起始位置的实际图像与目标位置的实际图像均输入到训练好的基于A3C算法的神经网络,根据基于A3C算法的神经网络输出的概率分布,选择概率最大值对应的动作作为机器人的下一个执行动作,直到机器人到达目标位置。

    基于行人平均状态的视频行人再识别方法及系统

    公开(公告)号:CN108805078A

    公开(公告)日:2018-11-13

    申请号:CN201810593780.3

    申请日:2018-06-11

    申请人: 山东大学

    IPC分类号: G06K9/00 G06N3/04

    摘要: 本发明公开了基于行人平均状态的视频行人再识别方法及系统,包括:非重叠相机拍摄获得视频,构成包含若干行人的数据集,暹罗网络与暹罗损失函数一起训练,由于训练好的网络学习到的视频特征具有区分性,通过对来自同一视频的所有帧的特征进行平均而获得的特征向量初始化个体的平均体;视频内损失函数被定义为最小化特征向量与平均状态之间的距离,将视频内损失函数与暹罗损失函数结合在一起,从头开始训练新的模型;用训练好的模型更新行人平均状态,并且用更新的平均状态对网络进行重新训练,直到在验证集上没有对行人再识别的准确性产生进一步收益。本申请方法在PRID2011,iLIDS‑VID和MARS数据集上优于大多数最先进的算法,这也证明了本申请提出的方法的有效性。