一种改进的模糊PID的智能汽车自动循迹方法

    公开(公告)号:CN108052002A

    公开(公告)日:2018-05-18

    申请号:CN201711164794.5

    申请日:2017-11-21

    CPC classification number: G05B13/042

    Abstract: 本发明公开了一种改进的模糊PID的智能汽车自动循迹方法。本发明的方法是通过智能车的传感器来测量小车在道路的位置,以及偏移道路的远近。当智能车在道路中间时,传感器检测到此时的偏差e为零,当智能车偏离车道越远时,此时的偏差e也就越大。当智能车偏离车道的速度为零时,此时的传感器检测到偏差的变化率ec为零。同理当智能车偏离车道的速度越大时,此时的偏差变化率ec也就越大。当计算出偏差e及偏差的变化率ec时,就可以通过和模糊PID算法结合,算出最终的PID值。本发明比普通的模糊PID算法更精确的且更实时的反应道路的信息。使智能车驾驶更加流畅精确。

    一种减少图像标签融合冗余计算的方法

    公开(公告)号:CN107798680A

    公开(公告)日:2018-03-13

    申请号:CN201710962059.2

    申请日:2017-10-16

    Abstract: 本发明公开了一种减少图像标签融合冗余计算的方法。本发明的方法是利用GPU多线程并行计算,整体上提取目标图像和多图谱图像的灰度特征,再建立一个从目标图像的灰度特征到多图谱图像的灰度特征的映射地图,通过映射地图寻找每个点匹配到的多图谱点集和对应的标签集,接着用欧氏距离计算匹配到的点集处的权重值,然后统计可能匹配的每个标签值的权重,找到目标图像每个点处对应权重值总和最大的标签值,最后得到带标签的分割图像。本发明所述的方法能够保证在不改变原有算法的分割精度的条件下,根据GPU多线程并行计算的特点,通过改为适用于GPU多线程的计算方式,来减少标签融合时的冗余计算,提高医学图像的分割效率。

    一种改进的基于协同过滤的miRNA-疾病关联预测方法

    公开(公告)号:CN107506608A

    公开(公告)日:2017-12-22

    申请号:CN201710902248.0

    申请日:2017-09-29

    Abstract: 本发明公开了一种改进的基于协同过滤的miRNA-疾病关联预测方法。miRNA-疾病预测问题可以看作是一种推荐修补问题。基于已知miRNA疾病关联的二分网络,根据miRNA对相关疾病的已知偏好,推荐使用miRNA,反之亦然。首先定义和计算测量一种疾病对另一种疾病的重要性矩阵SIGd。当疾病d(i)认为疾病d(j)更重要时,SIGd(d(i),d(j))的得分更高。类似地定义和计算SIGr以测量两种miRNA的重要性。其次使用显著矩阵和相似矩阵作为权重来计算得分。相似性矩阵被定义为表示miRNA或疾病之间的相似性,则miRNA-疾病关联的最终得分是miRNA与疾病的评分分数和该疾病对miRNA的评分评分的总和。本发明实现了更高的预测精度。

    一种基于智能手机的场景重建方法

    公开(公告)号:CN107103626A

    公开(公告)日:2017-08-29

    申请号:CN201710173832.7

    申请日:2017-03-22

    Abstract: 本发明公开了一种基于智能手机的场景重建方法。本方法为:1)计算智能手机上彩色相机的内部相机参数矩阵;2)将深度相机连接到该智能手机上并固定,计算该深度相机对应的内部相机参数矩阵及其缩放因子;3)计算该彩色相机与该深度相机相对应的外部参数矩阵;4)用智能手机上的该彩色相机、深度相机拍摄场景的全景视频,再将该视频转换为图像序列;然后通过得到的外部参数矩阵和内部参数矩阵将图像序列合并为RGB‑D四通道序列;5)计算该RGB‑D中相邻两帧对应的变换矩阵;6)通过RGB‑D与变换矩阵建立场景三维空间点云集,然后通过仿射变换将该点云集显示于智能手机的显示屏上。本发明具有更好的便携性和可塑性。

    一种基于深度学习的图像哈希编码方法

    公开(公告)号:CN107016708A

    公开(公告)日:2017-08-04

    申请号:CN201710182659.7

    申请日:2017-03-24

    Abstract: 本发明公开了一种基于深度学习的图像哈希编码方法。本发明包括如下步骤:步骤1、采用在ImageNet图像识别数据库上训练好的图像分类模型GoogLeNet作为初始化的基本网络结构,并将GoogLeNet模型的最后一层分类层替换为哈希层,该哈希层的单元数即为图像要编码成的比特数;步骤2、对GoogLeNet模型的参数进行优化;步骤3、将图像检索数据集中的图像输入至优化好的GoogLeNet模型,并将GoogLeNet模型输出的浮点数量化为二值码,从而得到每幅图像的二值码。本发明实现了图像特征与哈希函数的联合优化,克服了传统哈希方法学习到的哈希编码与图像特征不符的缺点。

    一种基于姿态识别的全景观测方法

    公开(公告)号:CN107009962A

    公开(公告)日:2017-08-04

    申请号:CN201710173878.9

    申请日:2017-03-22

    CPC classification number: B60R1/00 B60R2300/105 B60R2300/303 G06F3/012

    Abstract: 本发明公开了一种基于姿态识别的全景观测方法。本发明包括如下步骤:步骤1.在车辆外部安装四个球形摄像机;其中,两个球形摄像机用于拍摄车辆前景,称为前景球机;另两个球形摄像机用于拍摄车辆后景,称为后景球机;步骤2.检测车内驾驶人员的人脸姿态,得到人脸的偏航角和俯仰角,并将其输入给前景球机或后景球机;步骤3.前景球机或后景球机根据输入的人脸的偏航角和俯仰角,偏转相应的偏航角和俯仰角后捕捉外景,并将外景图片传送给车辆内部的数据处理单元;步骤4.数据处理单元将收到的外景图片,即双目视差图,处理成为裸眼3D图像传送给车辆内的显示屏。本发明使得视角更为灵活,能够使屏幕有效地利用。

    一种基于深度残差网络的手势识别方法

    公开(公告)号:CN106991386A

    公开(公告)日:2017-07-28

    申请号:CN201710174418.8

    申请日:2017-03-22

    Abstract: 本发明公开了一种基于深度残差网络的手势识别方法。本发明步骤包括:步骤1.获取手势的原始数据信息,并将其进行N点标记得到2N维的原始标签数据;步骤2.对原始数据信息及2N维的标签数据进行预处理;步骤3、将预处理后的原始数据信息与转化为hdf5格式的2N维的原始标签数据作为原始训练数据,输入到深度残差网络中训练网络参数,得到手势识别模型;步骤4、将待识别手势数据做与步骤1相同的N点标记得到2N维的待识别标签数据;步骤5、对待识别手势数据及2N维的标签数据进行预处理,并将预处理后的手势数据与转化为hdf5格式的2N维的待识别标签数据,输入到上述手势识别模型中进行识别,得到识别结果。本发明有效解决梯度弥散和网络精度问题。

    一种基于超图的联邦学习生存预测方法

    公开(公告)号:CN120048507A

    公开(公告)日:2025-05-27

    申请号:CN202411951989.4

    申请日:2024-12-27

    Abstract: 本发明公开了一种基于超图的联邦学习生存预测方法。首先,对于r个中心,针对每个中心获取n张病理图,得到数据集的特征信息;然后采用最近邻居算法计算每张病理图的p个patch图的最近邻居,连接互为邻居的的patch形成超图,得到关联矩阵;然后通过超图卷积神经网络学习并获得整张病理图的特征;再者,使用超图蒸馏进行局部网络的更新;之后根据每个中心的局部网络,更新全局网络,并进行生存预测。本发明利用超图蒸馏来缩小HGSurvNet和MLP之间的差距,在实现快速推理的同时保留了捕获结构信息的能力;改善了生存预测联邦学习领域的准确性和鲁棒性不足问题,提高了生存预测的准确率和对不同中心数据预测的鲁棒性。

    一种基于多模态数据输入的步态识别方法

    公开(公告)号:CN119785413A

    公开(公告)日:2025-04-08

    申请号:CN202411264571.6

    申请日:2024-09-10

    Abstract: 本发明公开了一种基于多模态数据输入的步态识别方法。本发明步骤:1:将人体解析序列数据集以及人体骨架序列数据集转化为pkl文件;2:构造特征融合模块,该模块将人体解析模块的特征和人体骨架模块的特征进行深度融合;3:构造时空特征提取模块,时空特征提取模块的第一个分支,先使用内核大小为3的一维卷积沿时间维度提取特征,后进入ReLu激活函数,再经过卷积核后进入ReLu激活函数,通过时间维池化经过卷积核得到时间维特征向量;第二个分支再使用一维卷积沿空间维度提取特征,后续部分和时间维度分支保持一致。本发明融合了人体关键点和细粒度解析序列,同时兼顾信息的丰富性和定位的准确性,从而提升步态识别的性能。

    一种基于深度去噪的三维高斯渲染方法

    公开(公告)号:CN119762652A

    公开(公告)日:2025-04-04

    申请号:CN202510265593.2

    申请日:2025-03-07

    Abstract: 本发明公开了一种基于深度去噪的三维高斯渲染方法。首先基于图片序列或者视频获取场景点云和相机位姿,然后基于获取的点云构造神经辐射图;对得到的神经辐射图进行深度去噪;通过端到端训练得到训练好的场景表达;最后通过训练得到的场景表达实现三维高斯渲染。本发明专注于解决光栅化过程中由于采样不充分引入的噪声问题。通过利用深度去噪技术,本发明能够有效去除渲染结果中的“伪影”,可以大幅提升渲染结果的清晰度与真实感,为高质量图形生成与显示提供了一种可靠的技术支持。

Patent Agency Ranking