一种人体动作与体表形变捕捉方法及对应的模块化可穿戴设备

    公开(公告)号:CN114840081B

    公开(公告)日:2024-08-16

    申请号:CN202210474433.5

    申请日:2022-04-29

    Applicant: 浙江大学

    Abstract: 本发明公开了一种人体动作与体表形变捕捉方法及对应的模块化可穿戴设备,其中,人体动作与体表形变捕捉方法包括:(1)模块化可穿戴设备快速构建方法:采集用户穿戴部位的体型数据,构建模块化的可穿戴IMU传感器网络,为不同用户生成个性化的可穿戴设备穿戴方案;根据穿戴方案制作、组装基于IMU传感器的模块化可穿戴设备,并穿戴于用户特定部位;(2)位姿自感知算法:对来自可穿戴设备数据处理模块的IMU传感器数据进行处理,得到用户动作和体表形变。本发明充分考虑了个性化的人体数据,模块化的可穿戴设备可以针对不同体型的人使用不同的可穿戴解决方案,不仅可以实现全身或肢体运动的捕捉,还可以精确感知肌肉或皮肤变形等细粒度信息。

    一种支持三维建模的实体交互控制方法及其装置

    公开(公告)号:CN117292085B

    公开(公告)日:2024-02-09

    申请号:CN202311585312.9

    申请日:2023-11-27

    Applicant: 浙江大学

    Abstract: 本发明公开了一种支持三维建模的实体交互控制方法,本发明利用在柔性实体内部分布设置有惯性传感器的节点来实时接收姿态角数据,并构建能够表示相邻节点沿同一方向且产生弧形形变的运动链模型,并基于运动链模型得到参考向量,通过参考向量和实时接收的姿态角得到各个节点的实时三维空间坐标,将三维空间坐标输入三维建模软件得到复杂形状的三维模型。本发明还公开了一种支持三维建模的实体交互控制装置。本发明提出的方法及装置支持简单、快速地创建带有复杂曲线或曲面结构的三维模型,从而支持快速创意迭代、方案验证等过程。

    一种基于表情识别的自适应情感表达系统及方法

    公开(公告)号:CN110555401B

    公开(公告)日:2022-05-03

    申请号:CN201910790582.0

    申请日:2019-08-26

    Applicant: 浙江大学

    Abstract: 本发明提供了一种基于表情识别的自适应情感表达系统及方法;系统包括图像采集模块、图像处理模块、表情识别模块、“情感‑行为”映射模块、运动表达模块、灯光表达模块和存储模块。通过图像采集模块采集人脸图像,利用图像处理模块对人脸图像进行人脸检测、图像裁剪等处理,利用改进的卷积神经网络实现人脸图像的表请识别,并分析其情感状态;“情感‑行为”映射模块将用户情感映射为包含一定情感的高级行为,利用运动表达模块和灯光表达模块解析并表达出相应的高级行为,以给予用户回应;利用存储模块记录用户此时的情感状态并将其反馈给“情感‑行为”映射模块。通过本发明,可提升服务机器人的社交与情感交互能力。

    一种基于知识距离的项目式学习分组方法及装置

    公开(公告)号:CN114580912B

    公开(公告)日:2024-10-18

    申请号:CN202210215499.2

    申请日:2022-03-07

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于知识距离的项目式学习分组方法,包括:步骤1、获取分组学习的知识点与待分组学生的个人信息,所述个人信息包括学生的专业与对应的专业知识集;步骤2、构建基于学生之间知识距离的分组模型,包括专业距离模块,擅长知识点模块、课程知识点模块、合并模块以及分组模块;步骤3、将分组学习的知识点,待分组学生的个人信息以及教师的分组期望输入至分组模型中,经计算输出分组名单。本发明还提供了一种项目式学习分组装置。通过本发明提供的方法基于专业、擅长知识以及课程涉及的知识点三个方向考虑,计算学生之间的综合知识距离,通过数据可视化以及教师自定义分组期望,从而获得更加合理的分组结果。

    一种支持三维建模的实体交互控制方法及其装置

    公开(公告)号:CN117292085A

    公开(公告)日:2023-12-26

    申请号:CN202311585312.9

    申请日:2023-11-27

    Applicant: 浙江大学

    Abstract: 本发明公开了一种支持三维建模的实体交互控制方法,本发明利用在柔性实体内部分布设置有惯性传感器的节点来实时接收姿态角数据,并构建能够表示相邻节点沿同一方向且产生弧形形变的运动链模型,并基于运动链模型得到参考向量,通过参考向量和实时接收的姿态角得到各个节点的实时三维空间坐标,将三维空间坐标输入三维建模软件得到复杂形状的三维模型。本发明还公开了一种支持三维建模的实体交互控制装置。本发明提出的方法及装置支持简单、快速地创建带有复杂曲线或曲面结构的三维模型,从而支持快速创意迭代、方案验证等过程。

    一种心音盒的控制方法及控制系统

    公开(公告)号:CN112121280B

    公开(公告)日:2022-04-01

    申请号:CN202010894847.4

    申请日:2020-08-31

    Applicant: 浙江大学

    Abstract: 本发明涉及一种心音盒的控制方法及控制系统,属于音乐播放控制技术领域。控制方法包括:(1)接收由摄像头所采集的手势动作的深度图像信息;(2)从深度图像信息中获取手势参数,手势参数包括掌心朝向、手指关节的移动位移及手指关节的移动速度;(3)基于预先构建的映射表,获取与手势参数相适配的音乐播放参数,音乐播放参数包括音效类别及音量;(4)按照音乐播放参数,控制心音盒播放与音乐播放参数相适配的自然声音的录音。该控制方法不仅可基于手势对音乐的播放进行控制,且无需基于硬件加速就能对手势与音乐之间的映射关系进行识别,从而能更好地基于手势动作及与之相适配的音乐辅助缓解焦虑,可以广泛用于焦虑缓解等领域。

    一种人体动作与体表形变捕捉方法及对应的模块化可穿戴设备

    公开(公告)号:CN114840081A

    公开(公告)日:2022-08-02

    申请号:CN202210474433.5

    申请日:2022-04-29

    Applicant: 浙江大学

    Abstract: 本发明公开了一种人体动作与体表形变捕捉方法及对应的模块化可穿戴设备,其中,人体动作与体表形变捕捉方法包括:(1)模块化可穿戴设备快速构建方法:采集用户穿戴部位的体型数据,构建模块化的可穿戴IMU传感器网络,为不同用户生成个性化的可穿戴设备穿戴方案;根据穿戴方案制作、组装基于IMU传感器的模块化可穿戴设备,并穿戴于用户特定部位;(2)位姿自感知算法:对来自可穿戴设备数据处理模块的IMU传感器数据进行处理,得到用户动作和体表形变。本发明充分考虑了个性化的人体数据,模块化的可穿戴设备可以针对不同体型的人使用不同的可穿戴解决方案,不仅可以实现全身或肢体运动的捕捉,还可以精确感知肌肉或皮肤变形等细粒度信息。

    一种基于知识距离的项目式学习分组方法及装置

    公开(公告)号:CN114580912A

    公开(公告)日:2022-06-03

    申请号:CN202210215499.2

    申请日:2022-03-07

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于知识距离的项目式学习分组方法,包括:步骤1、获取分组学习的知识点与待分组学生的个人信息,所述个人信息包括学生的专业与对应的专业知识集;步骤2、构建基于学生之间知识距离的分组模型,包括专业距离模块,擅长知识点模块、课程知识点模块、合并模块以及分组模块;步骤3、将分组学习的知识点,待分组学生的个人信息以及教师的分组期望输入至分组模型中,经计算输出分组名单。本发明还提供了一种项目式学习分组装置。通过本发明提供的方法基于专业、擅长知识以及课程涉及的知识点三个方向考虑,计算学生之间的综合知识距离,通过数据可视化以及教师自定义分组期望,从而获得更加合理的分组结果。

    一种面向可持续发展教育的学习辅助方法及系统

    公开(公告)号:CN114579705A

    公开(公告)日:2022-06-03

    申请号:CN202210219394.4

    申请日:2022-03-08

    Applicant: 浙江大学

    Abstract: 本发明公开了一种面向可持续发展教育的学习辅助方法,包括:S1获取学习交流过程中的对话文本,识别对话文本中的关键词;S2提取S1中关键词的实体以及对应的标签;S3基于S2中实体及对应的标签,提取出属于可持续发展教育领域的知识实体;S4基于相似度计算,获得对应的匹配实体;S5基于S4中获得的匹配实体,进行图数据库检索,输出全局知识实体网络;S6基于S5中全局知识实体网络,通过深入检索,获得细节知识实体网络。本发明还提供了一种基于上述方法的系统。通过本发明提供的方法识别学习交流对话中的语义内容,为用户反馈相互关联的知识实体网络,拓展用户解决与分析问题的思路,从而提高用户的综合学习能力,达到更好的学习实践效果。

Patent Agency Ranking