利用北斗导航系统短报文监测车辆运营状态的方法

    公开(公告)号:CN105551290A

    公开(公告)日:2016-05-04

    申请号:CN201610055644.X

    申请日:2016-01-27

    IPC分类号: G08G1/127 G01S19/14

    CPC分类号: G08G1/127 G01S19/14

    摘要: 本发明公开了利用北斗导航系统短报文监测车辆运营状态的方法,实现方式主要有:给运营车辆安装北斗导航模块;获得车辆位置、速度、时间和超速行驶等信息;安装状态监测传感器;对车辆的运行状态进行监测;对以上信息进行基于标准ASCII码的编码;北斗导航模块短报文将编码后的信息上传至监管中心,实现对运营车辆状态的实时监测。本发明解决了利用北斗导航系统短报文对车辆运营状态进行监测的技术问题。用6~7个ASCII字符表征一次车辆状况的全部信息,方法简单,编码效率高。车辆信息通过北斗短报文及时和定时统计上报,适合低成本的车辆运营状态监管应用。本发明还能拓展到海洋渔业、铁路车辆管理以及野外作业人员监测等应用。

    联合环路滤波和超分辨率的视频编解码参考图像重采样方法

    公开(公告)号:CN118714355A

    公开(公告)日:2024-09-27

    申请号:CN202410879519.5

    申请日:2024-07-02

    摘要: 本发明公开了联合环路滤波和超分辨率的视频编解码参考图像重采样方法,包括以下步骤;步骤1:对于给定的原始帧,首先利用编码分辨率决策模块判断当前帧是否需要进行降采样处理;步骤2:依据视频编码的标准流程进行编码操作;之后将被编码压缩的视频数据进行解码操作;步骤3:如果编码时使用了降采样,就通过环路滤波和超分辨率联合神经网络模块对低分辨率重建帧进行直接处理得到低分辨率的环路滤波输出,以及高分辨率帧即超分输出;如果编码时没有使用降采样,就仅利用环路滤波和超分辨率联合神经网络模块得到环路滤波输出。本发明减少图像重采样方法里滤波和超分两个网络模型之间的冗余,减小了网络的计算量,提升视频主观质量和编码效率。

    基于深度学习的多波长约束的无透镜显微成像方法

    公开(公告)号:CN118112775A

    公开(公告)日:2024-05-31

    申请号:CN202410224496.4

    申请日:2024-02-29

    摘要: 基于深度学习的多波长约束的无透镜显微成像方法,包括以下步骤;(1)测量无透镜显微成像系统参数,收集显微成像系统的物理和光学参数;(2)基于获得的系统参数,选择或设计样本,进行实验采集以构建训练样本集和测试样本集;(3)利用前两步获得的信息来设计和构建位恢复网络模型;(4)使用步骤(2)构建的训练样本集对步骤(3)构建的恢复网络模型进行训练;(5)在模型训练完成后,将其应用于实际的无透镜显微成像问题中,使用实际的数据测试模型的恢复能力,对实际问题进行振幅和相位恢复,得到图像。本发明充分考虑了物体对不同波长的光有着不同的吸收和反射特性,以及多波长图像进行约束,从而提升无透镜显微成像的图像质量。

    基于深度学习的在线视觉疲劳检测系统及方法

    公开(公告)号:CN113591699B

    公开(公告)日:2024-02-09

    申请号:CN202110869724.X

    申请日:2021-07-30

    摘要: 本发明公开了一种基于深度学习的在线视觉疲劳检测系统,主要解决现有技术中获取操作员信息单一,系统运行实时性差和疲劳检测准确率低的问题,其包括数据采集模块、图像数据处理模块和疲劳检测模块,该数据采集模块,置于电脑显示器正下方,用于采集眼动数据、RGB图像和深度信息;该图像数据处理模块,用于对图像数据中人脸位置、人脸特征点的检测及特征点深度信息的提取;该疲劳检测模块,用于对眼动数据、人脸特征点数据及深度数据的特征提取、特征融合和分类,输出操作员的疲劳程度。本发明使用非接触式方法,减少了对操作员工作状态的影响,避免了手工特征的设计,提升了视觉疲劳检测的准确率。可用于在线实时检测操作员的视觉疲劳等级。

    基于双目事件相机的深度信息测量方法

    公开(公告)号:CN113222945B

    公开(公告)日:2024-02-09

    申请号:CN202110543405.X

    申请日:2021-05-19

    摘要: 本发明公开了一种基于双目事件相机的深度信息测量方法,主要解决现有方法难以测量出准确、稠密的场景深度信息的问题。其实现方案为:构建基于双目事件相机的视差计算网络;通过从数据集中获取事件流和视差真值矩阵,对事件流进行归纳表示、注意力聚合和双目匹配,得到视差矩阵并最小化其与视差真值矩阵的差异,实现对视差计算网络的训练;搭建由双目相机组、场景和计算机组成的深度信息测量系统;用训练好的视差计算网络和搭建的深度信息测量系统,测量实际场景的深度信息。本发明能有效提取事件流的时空信息和聚合特征,使得对噪声更加鲁棒,测出的稠密深度信息更加准确,可应用于工业监控、医学科学、人机交互、虚拟现实、现实增强和自动驾驶。

    一种羊奶采集与快速质量检测装置

    公开(公告)号:CN114839330B

    公开(公告)日:2023-09-19

    申请号:CN202210512703.7

    申请日:2022-05-12

    IPC分类号: G01N33/04 G01R27/00 G01N1/20

    摘要: 本发明公开了一种羊奶采集与快速质量检测装置,包括检测装置的暂存静置腔体部分和检测装置与奶罐的连接过渡部分;所述检测装置的暂存静置腔体部分包括位于静置腔体顶部的上真空口、吸奶口、检测头出线口,所述检测头出线口与位于静置腔体内部的快拆接头相连通,所述快拆接头上连接电导率传感器和PH传感器;所述检测装置与奶罐的连接过渡部分包括位于静置腔体下测的阀门出线口和下真空口,静置腔体底部设置阀门和出奶口。本发明将奶源检测相关的传感器与奶罐设计为一体,实现挤奶过程中的奶源质量在线检测,也可以及时发现奶山羊的健康状况做出预警,具有在线检测快速、低成本的特点。

    用于图像的端到端半监督目标检测方法、装置和可读介质

    公开(公告)号:CN116630745A

    公开(公告)日:2023-08-22

    申请号:CN202310599386.1

    申请日:2023-05-25

    摘要: 本发明提供了一种用于图像的端到端半监督目标检测方法、装置和计算机可读介质。该方法包括对无标签数据和有标签数据分别进行采样,获得第一无标签数据和第一有标签数据;对第一无标签数据进行弱数据增强处理;对第一无标签数据进行第一强数据增强处理;对第一有标签数据进行第二强数据增强处理,记录所用到的数据处理步骤;教师模型生成表征检测目标的第一预测框,学生模型生成表征检测目标的第二预测框;将第一目标预测框和第二目标预测框统一到同一个坐标系中;在坐标系中计算学生模型的加权损失函数;根据加权损失函数对学生模型进行参数更新;以及使用指数移动平均算法对学生模型的参数进行处理,并用处理后的参数更新教师模型的参数。

    一种基于皮肤烟酸反应视频分析的心理健康状态检测装置

    公开(公告)号:CN116269378A

    公开(公告)日:2023-06-23

    申请号:CN202310028283.X

    申请日:2023-01-09

    发明人: 梁雪峰 李甫

    摘要: 本发明公开了一种基于皮肤烟酸反应视频分析的心理健康状态检测装置,包括:视频处理模块,用于获取受试者的皮肤烟酸反应视频,并对所述皮肤烟酸反应视频进行预处理;分析检测模块,用于对预处理后的皮肤烟酸反应视频进行分析处理得到受试者的皮肤烟酸反应的动态时序特征,并根据所述动态时序特征确定受试者的心理健康状态检测结果。本发明解决了现有技术中进行心理健康状态检测时所存在的耗时长、检测开展难度大以及检测标准不统一等诸多问题,能够广泛应用,从而帮助广大人群维护心理健康。

    基于帧差法的手部动作实时识别方法

    公开(公告)号:CN112446321B

    公开(公告)日:2023-04-18

    申请号:CN202011326316.1

    申请日:2020-11-24

    IPC分类号: G06V40/20 G06V10/84

    摘要: 本发明公开了一种基于帧差法的手部动作实时识别方法。主要解决现有技术无法在低功耗设备上实时进行手部动作识别的问题。其实现方案为:1)对读入图像之间使用帧差分法进行处理以提取前景目标图像;2)从读入图像中提取YCrCb格式中的色度分量Cr,以求取肤色概率;3)结合肤色概率,对获得的前景目标图像使用贝叶斯估计得到目标手图像;4)对目标手图像进行降维操作,获得质心并调整;5)对调整后的质心计算质心之间的向量,根据质心向量确定状态值,再由状态值的比较情况判断手部运动状态,实现手部动作的识别。本发明提高了手势识别的准确率,且能部署至低功耗设备运行,可以应用于人机交互、远程控制。