一种基于红外视频与深度学习的手腕脉诊点定位方法

    公开(公告)号:CN118787311A

    公开(公告)日:2024-10-18

    申请号:CN202410742447.X

    申请日:2024-06-11

    申请人: 复旦大学

    摘要: 本发明属于计算机图像处理技术领域,具体为基于红外视频与深度学习的手腕脉诊点定位方法。本发明的基本步骤为:数据集中的每个红外视频皆有“寸、关、尺“的二维坐标作为深度学习模型的监督信息。深度学习模型以ResNet‑18作为基线架构,并将ResNet‑18中的二维卷积层、二维最大池化层、二维批归一化层等,以三维卷积层、三维最大池化层、三维批归一化层等作置换。ResNet‑18中每个残差模块结合基于LSTM的时序注意力模块,以特征图作为输入,并输出时序轴的注意力权重分布,让模型专注于信息量较多的特征图,更好地捕捉红外视频的时序信息。最后将待测定的手腕红外视频作为已训练完成的深度学习模型的输入,预测得到手腕脉诊点的坐标。

    一种基于热度图与时序注意力先验的手腕脉诊点定位方法

    公开(公告)号:CN118736006A

    公开(公告)日:2024-10-01

    申请号:CN202410751094.X

    申请日:2024-06-12

    申请人: 复旦大学

    摘要: 本发明属于计算机图像处理技术领域,具体为基于热度图与时序注意力先验的手腕脉诊点定位方法。本发明包括:根据红外视频数据集构建寸、关、尺关键点的二维坐标作为监督信息;构建深度学习模型,具体以U‑Net为基线架构,结合时序注意力先验模块;U‑Net编码器提取输入数据的特征,解码器生成热度图,每次上采样后生成的热度图与对应层级特征进行融合,恢复到原分辨率后得到关键点热度图,最后经过关键点拟合得到关键点坐标。时序注意力先验通过跳跃连接与编码器的低级语义特征和解码器的高级语义特征进行特征融合,使模型更好地利用红外视频的时序信息,输出更精确的关键点热度图。最后预测得到手腕脉诊点的热度图,经过关键点拟合得到脉诊点坐标信息。

    基于近红外摄像与深度学习的人手腕脉口位置精准定位方法

    公开(公告)号:CN114298978A

    公开(公告)日:2022-04-08

    申请号:CN202111493641.1

    申请日:2021-12-08

    申请人: 复旦大学

    IPC分类号: G06T7/00 G06N3/04 G06N3/08

    摘要: 本发明属于计算机图像处理技术领域,具体为基于近红外摄像与深度学习的人手腕脉口位置精准定位方法。本发明的基本步骤为:首先通过近红外相机对多人进行手部图像采样,由专业医生进行脉口位置的标记,作为深度学习脉口定位网络模型的训练数据;然后构建深度学习网络模型,网络模型包括特征提取网络和回归网络,特征提取网络对训练集进行腕部轮廓纹理颜色等特征提取,将提取到的腕部特征通过回归网络进行脉口位置预测,得到泛化能力较强的深度学习脉口定位网络模型;最后将拍摄到的手部图像作为预先训练好的深度学习脉口定位网络模型的输入,预测得到手腕脉口在图像上的位置。本发明方法能以较高的精度找到人手腕的脉口位置,为机器人进行中医脉诊提供实时的视觉定位。