基于人类眼球模型的空间凝视跟踪方法和装置

    公开(公告)号:CN116434314A

    公开(公告)日:2023-07-14

    申请号:CN202310263528.7

    申请日:2023-03-10

    Applicant: 清华大学

    Inventor: 何源 杨松洲

    Abstract: 本发明提供一种基于人类眼球模型的空间凝视跟踪方法和装置,包括:获取待处理目标图像;根据待处理目标图像生成眼部关键点检测结果和眼部区域分割结果;将眼部关键点检测结果和眼部区域分割结果输入至预先构建的椭圆拟合模型,以得到椭圆拟合结果;根据椭圆拟合结果,利用第一预设规则基于第一预设公式得到眼球的旋转中心,以确定光轴参数;根据光轴参数,利用第二预设规则基于第二预设公式确定视轴,进而确定视线的空间位置。本发明在新的视轴模型的基础上通过眼部关键点检测、眼部区域分割、椭圆拟合、光轴计算四个步骤得到视轴,进而确定视线的空间位置,实现了准确度更高、误差更低、成本更低、更为轻便的空间凝视跟踪。

    针对视线追踪的隐式校准方法和装置

    公开(公告)号:CN116430992A

    公开(公告)日:2023-07-14

    申请号:CN202310263502.2

    申请日:2023-03-10

    Applicant: 清华大学

    Inventor: 何源 杨松洲

    Abstract: 本发明提供一种针对视线追踪的隐式校准方法和装置,包括:获取校准窗口内的N个待校准视线跟踪结果和M个设备当前显示内容帧;其中,N小于M;将设备当前显示内容帧的像素调整到预设分辨率,以得到待检测内容帧;将待检测内容帧输入至视觉显著检测模块,以得到视觉显著检测结果;将视觉显著检测结果输入至视觉显著度量模块,以得到待校准内容帧;将待校准内容帧输入至显著信息提取模块,以得到待输入显著信息;将待输入显著信息和待校准视线跟踪结果输入至视线追踪校准模块,以得到视线跟踪校准结果。本发明利用显著性信息识别视频帧,并仅使用这些“有用的”帧执行校准,实现不需要用户配合的、更为简单的、用户体验更好的视线追踪的校准。

    一种流媒体调度方法及装置

    公开(公告)号:CN111277857A

    公开(公告)日:2020-06-12

    申请号:CN201811475838.0

    申请日:2018-12-04

    Applicant: 清华大学

    Inventor: 何源 杨松洲

    Abstract: 本发明实施例提供一种流媒体调度方法及装置,该方法包括:接收用户当前时刻后预设时长内注视区域的预测结果,所述预测结果对应于视频区域划分得到的多个子区域中的目标子区域;根据当前时刻后预设时长内应发送的视频片段,以所述目标子区域为中心,生成与人眼视觉层级对应的清晰度依次递减的混合视频片段;将所述混合视频片段发送至客户端。本发明实施例提供的方法实现了低带宽资源的占用下,得到较高的QoE。

    一种流媒体调度方法及装置

    公开(公告)号:CN111277857B

    公开(公告)日:2021-04-13

    申请号:CN201811475838.0

    申请日:2018-12-04

    Applicant: 清华大学

    Inventor: 何源 杨松洲

    Abstract: 本发明实施例提供一种流媒体调度方法及装置,该方法包括:接收用户当前时刻后预设时长内注视区域的预测结果,所述预测结果对应于视频区域划分得到的多个子区域中的目标子区域;根据当前时刻后预设时长内应发送的视频片段,以所述目标子区域为中心,生成与人眼视觉层级对应的清晰度依次递减的混合视频片段;将所述混合视频片段发送至客户端。本发明实施例提供的方法实现了低带宽资源的占用下,得到较高的QoE。

Patent Agency Ranking