一种基于自蒸馏对比学习的超分辨率模型压缩和加速方法

    公开(公告)号:CN113538233A

    公开(公告)日:2021-10-22

    申请号:CN202110709066.8

    申请日:2021-06-25

    摘要: 本发明公开了一种基于自蒸馏对比学习的超分辨率模型压缩和加速方法,其特点是采用自蒸馏框架引入基于对比学习的损失函数,通过训练一个参数量较大的教师模型,从中选取每一层的前1/r的通道构成学生模型,其参数与教师模型共享,利用教师模型的预测输出、负样本和高分辨率图像计算重建损失和对比损失。本发明与现有技术相比具有即插即用性,在压缩和加速的同时仍能保证生成图像的真实性,大大减少了模型的参数量和计算量,可以对目前现有的所有超分辨率模型同时进行压缩和加速,通过使用对比损失,对解空间的上下界进行约束,在减少模型参数量的同时保证模型的性能,使复原得到的图片有更强的真实性。

    一种基于自蒸馏对比学习的超分辨率模型加速方法

    公开(公告)号:CN115147277A

    公开(公告)日:2022-10-04

    申请号:CN202210782436.5

    申请日:2022-07-05

    摘要: 本发明公开了一种基于自蒸馏对比学习的超分辨率模型加速方法,采用自蒸馏框架引入基于对比学习的损失函数,在一个参数量较大的教师模型中选取每一层的前1/r的通道构成多个学生模型,并采用渐进式方式进行训练。测试阶段,利用输入图像的特征,估计图像复原难度为其选择最合适的分支,进行动态推理。本发明具有即插即用性,对目前现有的所有超分辨率模型同时进行压缩和加速;通过使用对比损失,对解空间的上下界进行约束,在减少模型参数量的同时保证模型的性能,使复原得到的图片有更强的真实性。采用渐进式训练,可以保证多个模型的一致性和训练稳定性。通过动态推理策略,“简单”输入可以使用“简单”分支,实现复原效果和计算量更优的平衡。