一种自动聚焦的多波段成像系统
    1.
    发明公开

    公开(公告)号:CN116996787A

    公开(公告)日:2023-11-03

    申请号:CN202310662317.0

    申请日:2023-06-06

    摘要: 本发明涉及一种自动聚焦的多波段成像系统,属于缺陷识别技术领域,解决了现有技术中聚焦速度慢的问题。具体包括:三通道成像单元、图像处理单元、图像融合单元以及电机控制单元;三通道成像单元,用于对目标进行可见光、紫外光、红外光成像,输出可见图像、紫外图像以及红外图像至图像处理单元;图像处理单元,基于图像清晰度函数采用改进的变步长爬山算法获取三通道成像单元的聚焦位置并发出控制信号给所述电机控制单元;以及接收三通道成像单元聚焦位置处成像清晰图像,并发送至图像融合单元;图像融合单元,用于对清晰的图像进行融合后输出;电机控制单元,用于根据接收的控制信号,进行聚焦。实现了图像采集的成功率以及快速聚焦。

    一种多波段成像及融合方法

    公开(公告)号:CN116681633B

    公开(公告)日:2024-04-12

    申请号:CN202310666645.8

    申请日:2023-06-06

    IPC分类号: G06T5/50 H04N23/67

    摘要: 本发明涉及一种多波段成像及融合方法,属于缺陷识别技术,解决了现有技术中图像采集成功率低的问题。方法包括:利用三通道成像单元对目标进行可见光、紫外光、红外光成像,得到可见图像、紫外图像、红外图像;获取可见图像、紫外图像、红外图像的清晰度函数,并基于各图像的图像清晰度函数采用改进的变步长爬山算法获取三通道成像单元的聚焦位置;获取聚焦位置处清晰的可见、紫外、红外图像;基于清晰的可见、紫外、红外图像采用融合算法进行融合,得到融合后的图像。实现了成像图像采集成功率低、图像融合度低的问题。

    一种多波段成像及融合方法

    公开(公告)号:CN116681633A

    公开(公告)日:2023-09-01

    申请号:CN202310666645.8

    申请日:2023-06-06

    IPC分类号: G06T5/50 H04N23/67

    摘要: 本发明涉及一种多波段成像及融合方法,属于缺陷识别技术,解决了现有技术中图像采集成功率低的问题。方法包括;利用三通道成像单元对目标进行可见光、紫外光、红外光成像,得到可见图像、紫外图像、红外图像;获取可见图像、紫外图像、红外图像的清晰度函数,并基于各图像的图像清晰度函数采用改进的变步长爬山算法获取三通道成像单元的聚焦位置;获取聚焦位置处清晰的可见、紫外、红外图像;基于清晰的可见、紫外、红外图像采用融合算法进行融合,得到融合后的图像。实现了成像图像采集成功率低、图像融合度低的问题。

    基于域差异感知蒸馏的异构模型聚合方法及系统

    公开(公告)号:CN117746172A

    公开(公告)日:2024-03-22

    申请号:CN202211103020.2

    申请日:2022-09-09

    申请人: 复旦大学

    IPC分类号: G06V10/774 G06N20/00

    摘要: 本发明提供一种基于域差异感知蒸馏的异构模型聚合方法及系统,由于在服务器端采用知识蒸馏算法进行模型聚合,并且客户端本地也支持采用知识蒸馏进行模型训练,因此,可以屏蔽模型结构的差异给联合学习带来的影响;由于在服务器端采用了基于域差异感知的蒸馏算法,可以自适应地为不同教师模型赋予不同的权重,因此,可以缓解不同客户端以及服务器的数据集之间的差异给模型聚合带来的影响。另外,由于本发明支持各种形式的模型异构,即服务器与客户端模型异构、不同客户端之间的模型异构,能够适应更多真实应用场景,更具有实际应用价值。

    基于投影约束模型聚合的隐私保护端云联合机器学习方法

    公开(公告)号:CN117668532A

    公开(公告)日:2024-03-08

    申请号:CN202211008216.3

    申请日:2022-08-22

    IPC分类号: G06F18/214 G06N20/00

    摘要: 本发明提供一种基于投影约束模型聚合的隐私保护端云联合机器学习方法,采用联邦学习通过服务器对客户端提供的模型进行聚合,其特征在于,包括步骤:步骤1,采集训练数据获取客户端模型,利用训练好的客户端模型抽取客户端本地数据的中间层特征,以此计算训练好的模型每一层的参数所对应的投影矩阵,使得客户端模型不遗忘知识;步骤2,客户端将训练好的模型的参数和对应的投影矩阵发送给服务器;步骤3,服务器根据收到的模型参数和投影矩阵进行模型聚合,基于多目标优化策略,获取包含不同客户端知识的最优聚合模型,并将该最优聚合模型发送给客户端;步骤4,重复步骤1至步骤3,通过少量轮次通信,从而获取适用于所有客户端数据的全局模型。

    一种脑波驱动的交互绘画创作装置

    公开(公告)号:CN117656698A

    公开(公告)日:2024-03-08

    申请号:CN202311566268.7

    申请日:2023-11-23

    申请人: 复旦大学

    IPC分类号: B44D3/00 G06F3/01

    摘要: 本发明属于智能化绘画创作技术领域,具体为一种脑波驱动的交互绘画创作装置。该装置包括脑波传感检测模块、蓝牙传输模块、人机交互模块、电机控制驱动模块;用于读取脑波信号的脑波传感检测模块,用于接收和发送脑波信号的蓝牙传输模块,用于人机交互进行绘画的模块,用于控制前述模块工作的电机控制驱动模块,本装置做成头戴式,使用时佩戴在使用者头部,实时读取其脑电波信号,经由蓝牙信号将使用者精神集中度动态转化,控置装置上的“旋转盘”,实现个性化、可视化的人机交互绘画创作。该装置可广泛运用于艺术创新、AI耦合训练、冥想禅修等领域。

    一种基于自监督学习任务的手绘草图理解深度学习方法

    公开(公告)号:CN113673635B

    公开(公告)日:2023-09-01

    申请号:CN202010411459.6

    申请日:2020-05-15

    申请人: 复旦大学

    摘要: 本发明提供了一种基于自监督学习任务的手绘草图理解深度学习方法,其特征在于,包括如下步骤:步骤S1,基于不同的手绘草图中点的数据的分类对其中部分数据进行抹除,进一步将抹除部分数据后的手绘草图的数据用于自监督学习;步骤S2,将手绘草图的数据序列化后嵌入编码;步骤S3,将基于双向编码表示和自注意力机制的深度学习网络作为深度特征提取模块,并利用该深度特征提取模块提取手绘草图对应的点数据的深度特征;步骤S4,利用提取的深度特征预测被抹除的部分数据的坐标数据和状态数据;步骤S5,使用损失函数分别对坐标数据的预测与状态数据的预测任务进行训练从而获得训练好的网络模型。

    一种辅助无人系统视觉决策的解释序列产生方法

    公开(公告)号:CN115272782A

    公开(公告)日:2022-11-01

    申请号:CN202111613040.X

    申请日:2021-12-27

    申请人: 复旦大学

    摘要: 本发明提供一种辅助无人系统视觉决策的解释序列产生方法,为无人系统的监督任务提供层次化的决策依据,赋予系统决策透明性,方便开发者持续优化模型,其特征在于,包括以下步骤:步骤S1,将图像数据输入至预训练好的卷积神经网络模型获取最后一层的特征图张量以及每一层梯度信息;步骤S2,基于特征图张量和每一层梯度信息,采用人工智能可解释方法,获取决策显著图集合;步骤S3,基于决策显著图集合获取激活的输入数据图像集合;步骤S4,将激活的输入数据图像集合输入至预训练好的卷积神经网络模型,采用全局工作空间映射获取各显著图组对应的权重系数;步骤S5,基于各显著图组对应的权重系数合成显著图,并基于权重系数的预定顺序得到决策序列。

    一种视频动作迁移深度学习系统和方法

    公开(公告)号:CN114399708A

    公开(公告)日:2022-04-26

    申请号:CN202111660869.5

    申请日:2021-12-30

    申请人: 复旦大学

    摘要: 本发明公开了一种视频动作迁移深度学习系统和方法,包括分别与系统控制部连接的人物视频数据预处理部、视频特征量化部、视频特征重组部、动作迁移视频生成部,人物视频数据预处理部对源图像、参考图像进行预处理,提取源图像中源关键点信息和参考图像中参考关键点信息;视频特征量化部分别提取源图像、参考图像的深度特征,进行特征量化,获得源图像量化特征、参考图像量化特征;视频特征重组部根据源关键点、源图像量化特征、参考图像量化特征,预测出目标图像的量化特征;动作迁移视频生成部根据目标图像的量化特征,输出目标图像,系统控制部存储程序并进行控制。本系统用于实现动作迁移,保证目标图像的清晰度及分辨率。

    一种基于深度学习的保留密度的点云压缩方法

    公开(公告)号:CN114286103A

    公开(公告)日:2022-04-05

    申请号:CN202111597535.8

    申请日:2021-12-24

    申请人: 复旦大学

    摘要: 本发明提供一种基于深度学习的保留密度的点云压缩方法,用于在点云压缩过程中保留原始点云的密度从而生成高质量的重建点云,其特征在于,包括如下步骤:步骤S1,对预先获取的点云数据进行预处理从而得到训练样本;步骤S2,构建用于提取点云数据的几何信息与密度信息的编码器,并基于编码器获取点云特征;步骤S3,采用熵编码器对点云特征进行压缩;步骤S4,构建用于对点云特征进行上采样的解码器;步骤S5,构建损失函数;步骤S6,基于训练样本对由编码器、熵编码器以及解码器组成的点云压缩模型采用损失函数进行训练;步骤S7,将点云数据输入至训练好的点云压缩模型从而实现保留原始点云密度的点云压缩。