一种家居养老监控智能移动小车、监控系统及其监控方法

    公开(公告)号:CN105979220B

    公开(公告)日:2019-02-01

    申请号:CN201610453943.9

    申请日:2016-06-21

    IPC分类号: H04N7/18 G08B21/04

    摘要: 本发明公开了一种家居养老监控智能移动小车、监控系统及其监控方法,属于家庭智能监控领域。本发明的一种家居养老监控系统,包括全方位云台高清摄像装置、穿戴式无线生理传感装置、信息存储及处理决策中心、智能移动小车,全方位云台高清摄像装置和智能移动小车相互配合根据老人位置信息进行跟踪监控,并采集老人视频信息传输给信息存储及处理决策中心;信息存储及处理决策中心整合分析接收到的信息并作出判断决策,当老人出现异常时,作出呼叫医疗机构及通知家人的决策。本发明可以对老人动态进行精确、全面监控,且能对老人异常情况进行多信息的融合判定,避免出现虚假报警情况,提高了监控系统准确性。

    一种基于梯度动态调节的多模态情感识别方法及装置

    公开(公告)号:CN118447554A

    公开(公告)日:2024-08-06

    申请号:CN202410573512.0

    申请日:2024-05-10

    摘要: 本发明公开了一种基于梯度动态调节的多模态情感识别方法及装置,其方法包括获取待识别的多模态情感识别数据;将预处理后的多模态情感识别数据输入训练好的多模态情感识别模型,获取多模态情感识别结果;其中,多模态情感识别模型的训练过程包括:获取带真实标签的多模态情感识别数据作为训练样本;构建多模态情感识别模型,将预处理后的训练样本输入构建的多模态情感识别模型进行训练,基于梯度动态调节策略更新模型参数直至模型参数收敛或达到最大迭代次数;本发明提供的梯度动态调节策略在训练过程中动态调节不同模态参数的梯度,使得多模态的参数调节速度接近,确保其均衡优化,提高了多模态情感识别模型的准确率。

    一种目标物体的6D位姿估计方法
    24.
    发明公开

    公开(公告)号:CN117011380A

    公开(公告)日:2023-11-07

    申请号:CN202310989945.X

    申请日:2023-08-07

    发明人: 陈旭 沈捷 王莉

    摘要: 本发明公开了一种目标物体的6D位姿估计方法;首先使用改进的YoLov5m获得物体类别信息,并筛选获取包含目标物体的局部RGB‑D图像,再将局部RGB‑D图像经过PSPNet和PointNet预处理后输入PoseNet获得的初步估计位姿,最后通过PoseRefineNet迭代优化获取最终目标6D位姿,能够在室内复杂环境中获取目标物体类别信息且能提升目标6D位姿检测的稳定性与精度,同时优化了网络的复杂度与计算量,将改进的YoLov5m网络模型和DenseFusion算法结合,使用YoLov5m获取物体类别的同时得到包含目标物体的局部图像,这样使用局部图像与点云代替原本的整个图像信息输入DenseFusion算法进行物体6D位姿估计,不仅减少了网络的计算量和复杂度,并且提供了更集中的目标物体信息,提高了位姿估计的准确性和稳定性。

    一种密集场景下机械臂抓取目标物体的方法

    公开(公告)号:CN116330283A

    公开(公告)日:2023-06-27

    申请号:CN202310301614.2

    申请日:2023-03-24

    IPC分类号: B25J9/16

    摘要: 本发明公开了一种密集场景下机械臂抓取目标物体的方法,包括:通过V‑rep动态仿真软件搭建同现实环境相似的场景;在仿真环境中搭建编码器‑解码器结构的推动与抓取协同策略网络,整体结构由密集卷积神经网络DenseNet121以及两个并行的全卷积神经网络组成;搭建真实的密集堆叠复杂场景,将仿真端训练好的推动与抓取协同网络移植到实物平台,机械臂在真实环境下进行动作决策抓取目标物体。本方法采用深度强化学习的方式不断在工作环境中尝试动作获取奖励值来训练推动与抓取协同策略网络,根据目标物体的遮挡状态由策略网络自主决策最优动作,形成有效动作序列完成目标抓取任务,提高了在密集场景下目标物体的抓取成功率。

    一种基于深度学习的异常行为检测方法

    公开(公告)号:CN113361370B

    公开(公告)日:2023-06-23

    申请号:CN202110611720.1

    申请日:2021-06-02

    摘要: 本发明公开了一种基于深度学习的异常行为检测方法,具体包括以下步骤:S1、图像获取:利用摄像机获取实际场景RGB图像,S2、行人检测:利用目标检测算法YOLOv5检测当前视频帧中行人,输出检测框的位置信息、置信度与类别,对检测结果进行筛选,去除冗余框,本发明涉及人体行为识别技术领域。该基于深度学习的异常行为检测方法,采用计算机视觉的方式,增强在实际场景中的稳定性,通过摄像头获取的RGB图像,检测得到结果后,采用随机涂鸦进行数据增强来应对场景中的遮挡问题,平衡了准确度与实时性的的需求,对存在遮挡的实际环境,具有较强的抗干扰能力。

    基于脑区功能连接的fMRI数据分类识别方法及装置

    公开(公告)号:CN112233086A

    公开(公告)日:2021-01-15

    申请号:CN202011095774.9

    申请日:2020-10-14

    IPC分类号: G06T7/00 G06T7/11 G06K9/62

    摘要: 本发明设计了一种基于脑区功能连接的fMRI数据分类识别方法及装置,包括:获取被试者fMRI数据;对所获取的fMRI数据进行预处理,得到大脑灰质图像;将大脑灰质图像分割成多个不同功能的脑区,并提取每个脑区的平均体素时间序列;基于模糊决策粗糙集从多个功能脑区中选择存在显著差异的部分脑区;基于选择出的部分脑区,计算不同脑区之间的皮尔森相关系数,并采用Fisher‑z变换对系数进行非线性处理,得到部分脑区的功能连接矩阵;对矩阵中的相关系数值进行稀疏化,保留阈值之上的相关系数值,并将矩阵展开成一维特征向量;将得到的一维特征向量作为输入送到训练好的SVM识别模型中,得到被试者的输出标签并判断被试者fMRI数据类别。

    一种基于度量元学习的小样本图像分类方法

    公开(公告)号:CN118038167A

    公开(公告)日:2024-05-14

    申请号:CN202410231530.0

    申请日:2024-02-29

    摘要: 本发明提供一种基于度量元学习的小样本图像分类方法,所述方法包括特征映射模块、交叉注意力模块、距离度量模块、损失函数模块四部分构成的度量元学习模型。首先获取图像分类数据集,将数据集按照类别划分为训练集和测试集,且这两个数据集标签类别的交集为空集;从训练集中抽取大量小样本图像分类训练任务,从测试集构建目标小样本图像分类任务;构建由特征映射模块、交叉注意力模块、距离度量模块、损失函数模块组成的度量元学习模型;基于小样本分类训练任务,以最小化总体损失函数为目标,对度量元学习模型进行元训练,得到小样本图像分类模型;对于目标小样本任务,将测试集的支持集和查询集送入训练好的小样本图像分类模型,根据余弦距离度量模块来计算测试集查询样本的标签。本发明提供的基于度量元学习的小样本图像分类方法,减小同类别样本特征之间差异性,提升了特征空间中同类别特征分布的紧凑性,提高了特征提取模块的特征提取能力,从而提升了度量元学习模型在小样本图像分类任务上的分类精度。

    一种基于跟踪丢失触发机制的跌倒行为检测方法

    公开(公告)号:CN118015535A

    公开(公告)日:2024-05-10

    申请号:CN202410070428.7

    申请日:2024-01-17

    摘要: 本发明设计了一种基于跟踪丢失触发机制的跌倒行为检测方法。具体包括以下步骤:S1、首先获取待检测的视频图像;S2、设定跌倒检测范围;S3、采用头肩部检测器获取行人头肩部的检测框;S4、采用目标跟踪器对行人进行实时跟踪,并绘制行人运动轨迹;S5、判断是否触发跌倒姿态检测器,若发生跟踪丢失则触发跌倒姿态检测器,否则返回步骤S1;S6、将当前帧的图像传入跌倒姿态检测器,若检测到跌倒姿态,则认为发生跌倒行为,并弹出报警框,若未检测出跌倒姿态,则认为未发生跌倒行为;S7、重复步骤S1至S6,直至视频结束。本项目提出的基于跟踪丢失触发机制的跌倒行为检测方法降低了复杂遮挡场景下的漏报率、并且不会将擦地、坐卧等行为误判为跌倒,实现了复杂场景下行人跌倒行为的自动准确检测。