基于卷积神经网络的动态手势识别方法、装置及可读介质

    公开(公告)号:CN114093027B

    公开(公告)日:2024-07-26

    申请号:CN202111370077.4

    申请日:2021-11-18

    申请人: 常州工学院

    摘要: 本发明公开了一种基于卷积神经网络的动态手势识别方法、装置及可读介质。步骤1对公开的复杂手势数据集进行预处理;步骤2将C3D网络与EfficientNet‑B0网络模型相结合,简化网络结构;步骤3将EfficientNet‑B0网络中的压缩与激发网络替换为选择核心网络;步骤4将浅层特征与深层特征融合;步骤5对改造后C3D+EfficientNet‑B0融合网络进行训练和测试。本发明解决了现有动态手势识别网络网络结构复杂且提取无效特征以及对浅层特征信息挖掘利用不够的问题,实现了对复杂动态手势的识别,提高了动态手势分类准确率,可应用于人机交互的场所,在生活中为人们带来便利。

    一种基于图像处理的室内多吊扇自动控制方法及系统

    公开(公告)号:CN114087223A

    公开(公告)日:2022-02-25

    申请号:CN202111370087.8

    申请日:2021-11-18

    申请人: 常州工学院

    IPC分类号: F04D27/00 H04N5/232 G06V20/52

    摘要: 本发明公开了一种基于图像处理的室内多吊扇自动控制方法及系统,包括步骤1、首先按照吊扇安装位置将区域编号对应一个吊扇;步骤2、在房间门口检测是否有人员进出唤醒房间内的摄像头;步骤3、摄像头唤醒t秒后,采集房间图像信息,并发送给核心控制模块;步骤4、核心控制模块分析处理得出在哪些区域中有人及人的数量;步骤5、核心控制模块读取温度检测模块测得室内当前温度值小于阈值无需开启风扇;步骤6、当温度检测模块测得室内当前温度值温度大于或等于阈值将对应区域的吊扇调节吊扇转速;步骤7、当最后一个人从房间离开判定房间无人;步骤8、关闭所有吊扇。本发明实现吊扇控制的自动化及智能化,可减少电能的浪费。

    一种多摄像头摔倒检测装置及方法

    公开(公告)号:CN116129608A

    公开(公告)日:2023-05-16

    申请号:CN202310003715.1

    申请日:2023-01-03

    申请人: 常州工学院

    IPC分类号: G08B21/04

    摘要: 本发明公开了一种多摄像头摔倒检测装置及方法,属于健康监测技术领域。包括多个摄像头模组、核心控制模块、近程报警模块和远程求助模块,多个摄像头模组,用于采集用户活动的实时视频,以及检测是否有人体出现在摄像头的监视范围内,并生成监测数据传输至核心控制模块;核心控制模块,用于驱动多个摄像头模组、近程报警模块和远程求助模块,并根据监测数据实现摔倒检测;近程报警模块,用于受核心控制模块的驱动,实现近程报警,以及方便救援人员快速发现发生摔倒需要帮助的用户;远程求助模块,用于实现用户摔倒后的远程自动求助。本发明能够实时地实现对用户的追踪和摔倒检测,确保用户的安全,能够进一步提高摔倒事件判断的准确率。

    基于卷积神经网络的动态手势识别方法、装置及可读介质

    公开(公告)号:CN114093027A

    公开(公告)日:2022-02-25

    申请号:CN202111370077.4

    申请日:2021-11-18

    申请人: 常州工学院

    摘要: 本发明公开了一种基于卷积神经网络的动态手势识别方法、装置及可读介质。步骤1对公开的复杂手势数据集进行预处理;步骤2将C3D网络与EfficientNet‑B0网络模型相结合,简化网络结构;步骤3将EfficientNet‑B0网络中的压缩与激发网络替换为选择核心网络;步骤4将浅层特征与深层特征融合;步骤5对改造后C3D+EfficientNet‑B0融合网络进行训练和测试。本发明解决了现有动态手势识别网络网络结构复杂且提取无效特征以及对浅层特征信息挖掘利用不够的问题,实现了对复杂动态手势的识别,提高了动态手势分类准确率,可应用于人机交互的场所,在生活中为人们带来便利。

    一种基于近眼相机的视线追踪方法

    公开(公告)号:CN113342161B

    公开(公告)日:2022-10-14

    申请号:CN202110587119.3

    申请日:2021-05-27

    申请人: 常州工学院

    IPC分类号: G06F3/01 G06V40/18

    摘要: 本发明公开了一种基于近眼相机的视线追踪方法,其技术方案要点是:包括先采用近眼相机采集眼部灰度图像,还包括以下步骤:Step1.眼部图像预处理;Step2.视线特征提取;Step3.视线落点估计;所述Step1包括以下子步骤:Step11.获取感兴趣区域:获取眼部灰度图像中包含完整瞳孔部分的感兴趣区域;Step12.中值滤波:对获取感兴趣区域的眼部灰度图像进行中值滤波;本发明提出了一种基于近眼相机的视线追踪方法,该方法解决了阴影区域噪声及反射光斑对瞳孔边缘提取产生干扰的问题,同时根据瞳孔的不同遮挡情况,提出了相对应的采样点选取算法,提升了瞳孔中心定位的准确性。该视线追踪方法具有鲁棒性强、瞳孔中心定位精度高以及实时性好等优点。

    一种基于近眼相机的视线追踪方法

    公开(公告)号:CN113342161A

    公开(公告)日:2021-09-03

    申请号:CN202110587119.3

    申请日:2021-05-27

    申请人: 常州工学院

    IPC分类号: G06F3/01 G06K9/00

    摘要: 本发明公开了一种基于近眼相机的视线追踪方法,其技术方案要点是:包括先采用近眼相机采集眼部灰度图像,还包括以下步骤:Step1.眼部图像预处理;Step2.视线特征提取;Step3.视线落点估计;所述Step1包括以下子步骤:Step11.获取感兴趣区域:获取眼部灰度图像中包含完整瞳孔部分的感兴趣区域;Step12.中值滤波:对获取感兴趣区域的眼部灰度图像进行中值滤波;本发明提出了一种基于近眼相机的视线追踪方法,该方法解决了阴影区域噪声及反射光斑对瞳孔边缘提取产生干扰的问题,同时根据瞳孔的不同遮挡情况,提出了相对应的采样点选取算法,提升了瞳孔中心定位的准确性。该视线追踪方法具有鲁棒性强、瞳孔中心定位精度高以及实时性好等优点。

    摔倒检测机器人
    7.
    外观设计

    公开(公告)号:CN307969852S

    公开(公告)日:2023-04-11

    申请号:CN202330002797.9

    申请日:2023-01-04

    申请人: 常州工学院

    摘要: 1.本外观设计产品的名称:摔倒检测机器人。
    2.本外观设计产品的用途:用于判断检测对象是否摔倒。
    3.本外观设计产品的设计要点:在于形状与图案的结合。
    4.最能表明设计要点的图片或照片:立体图。