-
公开(公告)号:CN115731178A
公开(公告)日:2023-03-03
申请号:CN202211454389.8
申请日:2022-11-21
Applicant: 华东师范大学
IPC: G06T7/00 , G06V10/26 , G06V10/774 , G06V10/82 , G06N3/0475 , G06N3/088 , G06N3/094 , G06N3/084 , G06N3/048
Abstract: 本发明公开了一种跨模态的无监督域自适应医学图像分割方法,其特点是采用一致性正则化和不确定性估计来增强源模态和目标模态之间的图像对齐和特征对齐,实现跨模态的无监督域自适应医学图像分割,具体包括:1)数据预处理;2)迭代训练和参数更新;3)分割模型的获取;4)分割结果的获取;5)分割结果的评价等步骤。本发明与现有技术相比具有在不使用任何目标域标注的情况下可以学习到两个模态间共有的特征,并且在源模态和目标模态图像上都有较好的分割效果,有效解决了医学图像中的域迁移问题,使预测的分割图更加鲁棒,更具保真度。
-
公开(公告)号:CN114925850A
公开(公告)日:2022-08-19
申请号:CN202210509849.6
申请日:2022-05-11
Applicant: 华东师范大学
Abstract: 本发明公开了一种面向扰动奖励的深度强化学习对抗防御方法,该方法在深度强化学习算法PPO的基础上构建了一个名叫RecRe的奖励复原模块,该模块能够从扰动奖励中复原得到干净奖励。随后,强化学习智能体根据干净奖励学习得到具有防御能力的最优策略。本发明的创新点在于将深度学习环境中的扰动奖励看作是监督学习中的噪声标签,借助噪声标签学习的思想,构建了RecRe模块从噪声奖励中复原奖励,使得最终根据复原奖励学习的策略具备对抗防御性。相比于先前的替代策略和预测策略,本发明所提出的结合RecRe模块的PPO训练框架学习得到的复原策略具有更好的防御效果。
-
公开(公告)号:CN114925850B
公开(公告)日:2024-02-20
申请号:CN202210509849.6
申请日:2022-05-11
Applicant: 华东师范大学
Abstract: 本发明公开了一种面向扰动奖励的深度强化学习对抗防御方法,该方法在深度强化学习算法PPO的基础上构建了一个名叫RecRe的奖励复原模块,该模块能够从扰动奖励中复原得到干净奖励。随后,强化学习智能体根据干净奖励学习得到具有防御能力的最优策略。本发明的创新点在于将深度学习环境中的扰动奖励看作是监督学习中的噪声标签,借助噪声标签学习的思想,构建了RecRe模块从噪声奖励中复原奖励,使得最终根据复原奖励学习的策略具备对抗防御性。相比于先前的替代策略和预测策略,本发明所提出的结合RecRe模块的PPO训练框架学习得到的复原策略具有更好的防御效果。
-
-