一种单目机器人上的目标人发现与跟随方法

    公开(公告)号:CN107230219B

    公开(公告)日:2021-06-04

    申请号:CN201710309607.1

    申请日:2017-05-04

    申请人: 复旦大学

    IPC分类号: G06T7/246

    摘要: 本发明属于计算机图像处理技术领域,具体为一种单目机器人上的目标人发现与跟随方法。本发明步骤包括:机器人同时定位和建图,运动帧与运动区域检测,在运动帧的运动区域进行视觉目标检测,视觉目标人追踪,视觉目标人跟随。本发明利用机器人移动过程中的场景变化检测来分析需要进行目标检测的区域,利用深度网络进行室内人的检测,利用视觉追踪算法对目标进行追踪,并控制机器人进行主动跟随。本发明基于对象视觉特征,结合机器人同时定位和见图过程对场景的估计,能够对室内目标人进行有效的发现和跟随。本发明能够在多样的图像和复杂的背景下,在室内场景对目标人进行有效的发现、追踪与跟随。

    基于U网络和对抗学习的显著性检测方法

    公开(公告)号:CN108171701A

    公开(公告)日:2018-06-15

    申请号:CN201810036637.4

    申请日:2018-01-15

    申请人: 复旦大学

    IPC分类号: G06T7/00 G06N3/02

    CPC分类号: G06T7/0002 G06N3/02

    摘要: 本发明属于计算机数字图像处理技术领域,具体为一种基于U网络和对抗学习的显著性检测方法。本发明步骤为:构建深度神经网络:神经网络整体设计基于对抗生成网络,包含生成器与鉴别器,生成器在结构上使用了自编码器结构与跳跃连接,主要由编码器和译码器组成,编码器是由编码模块组成,编码模块使用了堆叠的残差模块,译码器主要由解码器组成,也使用了堆叠的残差模块;训练深度神经网络:使用公开的、真实场景下的显著性图像数据集,利用多尺度的图像内容损失函数与对抗损失函数,训练前一步中构建的深度神经网络;利用训练好的网络模型,对自然图像进行检测,再将得到的结果进行后处理,得到最终的结果。本发明方法能够提高显著性检测的准确性。

    一种基于深度学习的骨架行为分类方法

    公开(公告)号:CN116109958A

    公开(公告)日:2023-05-12

    申请号:CN202111312125.4

    申请日:2021-11-08

    申请人: 复旦大学

    摘要: 本发明属于计算机图像处理技术领域,具体为基于深度学习的骨架行为分类方法。本发明方法包括:对已有的人类行为视频数据进行预处理,通过人体检测模型和OpenPose分别获取对应的人体检测框和人体骨架数据,作为深度学习模型的训练数据;其中骨架数据作为自适应空洞时空网络模型的输入,并得到分类结果;对训练集进行监督式学习,得到泛化的深度学习模型;然后,对识别的视频进行和模型训练时相同的预处理,然后作为输入,放进预先训练好深度学习模型里,得到行为分类的结果。实验表明,本发明方法具有很好的鲁棒性,分类准确率大大提高。

    基于深度学习的脊柱退行性病变智能康复辅助训练系统

    公开(公告)号:CN114092854A

    公开(公告)日:2022-02-25

    申请号:CN202111295019.X

    申请日:2021-11-03

    申请人: 复旦大学

    摘要: 本发明公开了一种基于深度学习的脊柱退行性病变智能康复辅助训练系统。本发明系统包括基于深度学习的中医导引术视频实时分类模块和基于人体骨架表示的视频序列划分与评估模块;前者通过获取二维人体骨架数据,作为学习模型的训练数据,进行深度学习训练,得到泛化的深度学习模型;最后得到实时帧分类结果;后者根据帧分类结果,对相同类别的骨架序列进行分割与实时纠错,将分割好的序列段与相应类别专家组视频骨架序列段进行序列对比评分。本发明系统无需医护人员的指导和干预,能够使患者随时自行进行中医导引术训练,适用于家庭及基层医疗卫生机构,能够减轻医护人员的压力,提高患者康复训练的灵活性和准确性。

    一种计算机图像的美学评估方法

    公开(公告)号:CN105787966B

    公开(公告)日:2019-05-31

    申请号:CN201610157571.5

    申请日:2016-03-21

    申请人: 复旦大学

    IPC分类号: G06T7/11 G06T5/00 G06T7/40

    摘要: 本发明属于计算机图像处理技术领域,具体涉及一种计算机图像的美学评估方法。本发明是一种基于对象区域构图特征的图像美学评估方法,其步骤为:利用BING方法检测图像对象,对BING方法得到的候选框进行聚类并优化,从而得到图像对象区域;然后针对图像对象区域利用构图特征进行美学评估,其中,对画面构图相关特征进行了整合和改进,提高了美学评估的性能。本发明方法能够对计算机图像进行有效的美学评估。

    基于近红外摄像与深度学习的手腕脉口位置精准定位方法

    公开(公告)号:CN116168077A

    公开(公告)日:2023-05-26

    申请号:CN202211381043.X

    申请日:2022-11-06

    申请人: 复旦大学

    摘要: 本发明属于计算机图像处理技术领域,具体为基于近红外摄像与深度学习的人手腕脉口位置精准定位方法。本发明的基本步骤为:基于现有的脉口数据集,以标注坐标为中心生成二维高斯分布,作为本全卷积热度图网络模型的监督信息。网络模型由特征金字塔网络组成,包括编码和解码两个部分,编码部分提取特征自上而下尺度逐渐变小,通道数逐渐增加。解码部分,特征自下而上尺度逐渐变大,通道数逐渐增加,最后的输出通过卷积层和激活层输出当前尺度下每个坐标点是关键点的概率,通过关键点位置拟合方法获取到预测的坐标,得到泛化能力较强的深度学习脉口定位网络模型。最后将拍摄到的手部图像作为预先训练好的深度学习脉口定位网络模型的输入,预测得到手腕脉口在图像上的位置。

    适用于多种棋类的落子策略和局面评估方法

    公开(公告)号:CN110717591B

    公开(公告)日:2023-05-02

    申请号:CN201910929174.9

    申请日:2019-09-28

    申请人: 复旦大学

    发明人: 路红 王琳 杨博弘

    摘要: 本发明属于计算机博弈技术领域,具体为适用于多种棋类的落子策略和局面评估方法。本发明方法包括:通过神经网络预测落子概率和落子估值;使用MCTS算法和Update Board Value算法产生训练数据;通过强化学习方法迭代训练神经网络;最终使用MCTS算法输出落子策略和局面估值。本发明提供了一种对人类友好的、无需知道先手方优势值、适用于多种棋类(如围棋、黑白棋、国际象棋、象棋、国际跳棋)的局面评估函数和落子策略函数。

    基于骨架和视频特征融合的行为分类方法

    公开(公告)号:CN112560618B

    公开(公告)日:2022-09-16

    申请号:CN202011419698.2

    申请日:2020-12-06

    申请人: 复旦大学

    摘要: 本发明属于计算机图像处理技术领域,具体为一种基于骨架和视频特征融合的行为分类方法。本发明方法包括:对已有的人类行为视频数据进行预处理,通过人体检测模型和OpenPose分别获取对应的人体检测框和人体骨架数据,作为深度学习模型的训练数据;其中视频数据和人体检测框数据作为前景与背景特征融合网络的输入,骨架特征作为个体与群体特征融合网络的输入;两个网络的输出结果进行平均为最终分类结果;接着对训练集进行监督式学习,得到泛化的深度学习模型;然后,对识别的视频进行和模型训练时一样的预处理,然后作为输入,放进预先训练好深度学习模型里,就能得到行为分类的结果。

    基于近红外摄像与深度学习的人手腕脉口位置精准定位方法

    公开(公告)号:CN114298978A

    公开(公告)日:2022-04-08

    申请号:CN202111493641.1

    申请日:2021-12-08

    申请人: 复旦大学

    IPC分类号: G06T7/00 G06N3/04 G06N3/08

    摘要: 本发明属于计算机图像处理技术领域,具体为基于近红外摄像与深度学习的人手腕脉口位置精准定位方法。本发明的基本步骤为:首先通过近红外相机对多人进行手部图像采样,由专业医生进行脉口位置的标记,作为深度学习脉口定位网络模型的训练数据;然后构建深度学习网络模型,网络模型包括特征提取网络和回归网络,特征提取网络对训练集进行腕部轮廓纹理颜色等特征提取,将提取到的腕部特征通过回归网络进行脉口位置预测,得到泛化能力较强的深度学习脉口定位网络模型;最后将拍摄到的手部图像作为预先训练好的深度学习脉口定位网络模型的输入,预测得到手腕脉口在图像上的位置。本发明方法能以较高的精度找到人手腕的脉口位置,为机器人进行中医脉诊提供实时的视觉定位。