一种基于社交网络的文件共享方法

    公开(公告)号:CN106230973A

    公开(公告)日:2016-12-14

    申请号:CN201610763424.2

    申请日:2016-08-30

    Abstract: 本发明公开了一种基于社交网络的文件共享方法。该方法是在基站控制的D2D通信环境下,提供了一种基于社交网络的用户间文件共享和分发的新方法。该方法中基站根据用户的需求,将用户划分为若干临时小组,并通过用户的社交度来判断中央用户。在系统中没有需求文件缓存的情况下,基站首先把文件通过无线蜂窝通信链路发送给中央用户,该中央用户把文件通过D2D通信共享给组内有社交关系的用户。而与该中央用户没有社交关系的用户可以从基站或者已获得该文件的其他用户处得到该文件,从而实现文件共享。此外还解决了D2D用户在同一时间仅能处理(接收或发送)一个请求的问题。本发明可大大降低传输时延、减轻基站负载、优化蜂窝通信系统的整体性能。

    一种用户行为动作检测识别方法

    公开(公告)号:CN106095099A

    公开(公告)日:2016-11-09

    申请号:CN201610410039.X

    申请日:2016-06-12

    CPC classification number: G06F3/011 G06F3/0346 G06K9/6267

    Abstract: 本发明涉及一种用户行为动作检测识别方法,通过三轴加速度传感器实现了三维加速度的数据采集,并利用小波变换滤波算法对原始数据进行滤波处理,提高了可靠性。在此基础上,本发明利用主成分分析法有效的优化了数据集,同时比较了四种不同的模式识别分类算法和三种分类模型寻优算法,最终获得最优参数寻优算法与最佳分类器,实现针对用户行为动作的检测,实现了用户行为动作的有效识别,并针对异常行为进行报警;并且实验结果证明,该方法具有准确度高,相对计算复杂度低和实时性好等优点。

    一种基于地标识别的飞行器视觉导航方法

    公开(公告)号:CN104655135A

    公开(公告)日:2015-05-27

    申请号:CN201510084399.0

    申请日:2015-02-09

    CPC classification number: G01C11/08 G01C21/16 G01C25/005

    Abstract: 本发明公开了一种基于地标识别的飞行器视觉导航方法,属于飞行器视觉导航领域。该方法具体包括:通过对成像传感器采集待处理图像序列中的地标进行识别,利用序列图像中相邻两帧图像中识别出的地标位置和飞行器的飞行参数信息解算出地标到当前帧图像对应的飞行器的距离,进而解算出飞行器在地球坐标系下的坐标信息;最后,根据解算出的飞行器在地球坐标系下的坐标信息和飞行器的规划的航迹进行航迹校正。本发明在成像制导、飞行器视觉导航等方面提供了技术支撑,该发明具有可靠性好、实用价值高等特点。

    一种基于加权变分期望最大化准则的图像分割方法

    公开(公告)号:CN104166993A

    公开(公告)日:2014-11-26

    申请号:CN201410361656.6

    申请日:2014-07-25

    Abstract: 本发明公开了一种基于加权变分期望最大化准则的图像分割方法,该方法首先对待分割的图像进行特征信息的提取,接着用扩展高斯混合模型来描述图像特征信息的分布,并且基于加权变分期望最大化准则对扩展高斯混合模型参数的变分分布进行估计,估计完成后获得各个像素点由各个欲划分出的类所产生的概率,最后进行判决,将每个像素点关于各个类的概率值中的最大值所对应的序号作为该像素点最终所分配到的类,从而完成图像分割过程。本发明能有效地提高彩色图像分割的质量和效果,分割出的图像具有较好的平滑性。本发明能够避免基于最大似然准则的分割方法中容易出现的过拟合和欠拟合问题。

    一种基于哈希学习的跨模态材料表面检索方法及装置

    公开(公告)号:CN113468386B

    公开(公告)日:2023-10-20

    申请号:CN202110748308.4

    申请日:2021-07-01

    Abstract: 本发明揭示了一种基于哈希学习的跨模态材料表面检索方法及装置,该方法包括以下步骤:S1:获取训练数据集,每个材料表面样本包括视觉图片和触觉加速度;S2:对训练集进行符号化表示,建立两个并行的深度网络,得到视觉和触觉的特征表示;S3:将得到的不同模态特征表示分别输入自注意力网络,得到不同模态自注意力特征;S4:建立哈希层,将得到的视触自注意力实值特征转化为二进制哈希码,同时建立模态内中心约束并利用跨模态损失函数优化整个网络;S5:建立跨模态材料表面检索装置,实现跨模态检索。采用本方法能够充分融合视觉触觉之间的信息,将视触信息的最终特征表示转化为低维二进制哈希码,减少了跨模态检索的存储及检索成本。

    一种视听辅助的细粒度触觉信号重建方法

    公开(公告)号:CN115905838A

    公开(公告)日:2023-04-04

    申请号:CN202211446581.2

    申请日:2022-11-18

    Abstract: 本发明公开了一种视听辅助的细粒度触觉信号重建方法,首先将用于训练的触觉信号通过触觉自编码器,基于聚类任务提取触觉特征,并将该特征迁移至音频、图像特征提取网络中,实现针对音频、图像信号的特征提取;接着,利用三元组约束对触觉、音频、图像多模态融合映射函数进行优化,从而由提取出的音频、图像特征得到融合特征,最后将融合特征输入到触觉生成网络之中,实现细粒度触觉信号的重建;本发明很好地解决了多模态信号之间所存在弱监督和弱配对的问题,实现了跨模态共享语义学习,在保证了所生成的触觉信号结构以及语义完整性的同时还加强了其聚类特性,从而使得触觉信号的重建质量得到显著提升。

    一种基于最优AUC的多机器学习模型特征选择方法

    公开(公告)号:CN114724715A

    公开(公告)日:2022-07-08

    申请号:CN202210380302.0

    申请日:2022-04-12

    Abstract: 本发明所述的一种基于最优AUC的多机器学习模型特征选择方法,其步骤为:步骤1、输入影响组学特征数据集,对所有输入的特征进行预处理;步骤2、选择多种机器学习模型交叉组合进行进一步的特征筛选模型构建,迭代计算每一个高重现性特征子集的影像组学模型AUC;步骤3、对AUC结果进行比较,选取最优AUC,获得最优高重现性特征集,并将AUC结果生成可视化热力图。本发明通过交叉组合的方式形成了幂增数量的组合特征选择分类器,迭代地对所获得高重现性特征集进行了影像组学模型AUC的计算以及对比,并根据最优AUC自动进行最优高重现性特征集的选择;在进行特征筛选之后,可以生成相应的高重现性特征集进行广泛测试,避免偶然性,增加可靠性。

    一种基于注意力机制的跨模态图像修复方法及装置

    公开(公告)号:CN114677311A

    公开(公告)日:2022-06-28

    申请号:CN202210205553.5

    申请日:2022-03-03

    Abstract: 本发明公开了一种基于注意力机制的跨模态图像修复方法及装置,方法包括:选取多模态数据集,包括缺损图像数据、真实图像数据和触觉信号,将该数据集划分为训练集和测试集;设计一个基于注意力机制的跨模态图像修复AGVI模型,该模型包括可学习特征提取、转移特征注意力、相关嵌入学习和跨模态图像修复四个模块;利用训练集对跨模态图像修复AGVI模型进行训练,得到最优的跨模态图像修复AGVI模型结构及网络参数;利用测试集中的触觉信号和缺损图像数据,基于最优的跨模态图像修复AGVI模型进行跨模态修复图像。本发明通过引入注意力机制,精准定位图像缺损区域,并利用触觉信号中的关键信息修复预测、填充该区域,实现图像高质量、细粒度修复。

Patent Agency Ranking