-
公开(公告)号:CN111445540B
公开(公告)日:2023-04-18
申请号:CN202010223783.5
申请日:2020-03-26
申请人: 重庆理工大学
摘要: 本发明公开了一种用于RGB有色三维点云的自动配准方法,包括:获取源点集P和目标点集Q中每个点的灰度值;将源点集P中的点划分为S个等级、设置最大分辨率N并初始化当前分辨率;计算目标点集Q中每个点的曲率信息的方差之和及灰度值的方差,计算曲率信息的几何特征和颜色特征对应的权重因子;在当前分辨率下对源点集P提取采样点;计算每个采样点的主曲率、高斯曲率、平均曲率;选择采样点在目标点集Q中的匹配点;依次在当前分辨率至最大分辨率N下基于匹配点对更新源点集P。本发明由于采用了具备缩放、旋转及平移不变性的曲率特征和颜色特征来寻找匹配点,使得误匹配点对更少,因此提高了配准精度,并且引入了多分辨率框架提高了配准速度。
-
公开(公告)号:CN112967296B
公开(公告)日:2022-11-15
申请号:CN202110261653.5
申请日:2021-03-10
申请人: 重庆理工大学
摘要: 本发明公开了一种点云动态区域图卷积方法,以及使用这种点云动态区域图卷积方法的一种点云动态区域图分类方法和一种点云动态区域图分割方法。本发明采用了一种针对点云的新的卷积运算形式,根据构建点云图结构,通过一种非线性方法聚合多个不同邻域的点特征信息,使得神经元能够自适应的选取区域大小。与PointNet等现有的在单个点上进行分析的技术方案相比,本发明构建了多个不同的局部邻域图结构,让每个神经元都能够自适应的选取适合的邻域感受野大小,然后利用每个点与邻域点之间的联系进行类似的卷积运算获取局部特征,能够更好的结合周围邻域信息,更加有效的提取到局部几何信息,最终提高对点云数据的分类或分割的准确率。
-
公开(公告)号:CN115018152A
公开(公告)日:2022-09-06
申请号:CN202210620549.5
申请日:2022-06-02
申请人: 重庆理工大学
摘要: 本发明公开了一种基于技术因子图注意力网络的股票趋势预测方法,涉及股票预测技术领域。本发明步骤如下:S1:从CSMAR与同花顺财经取得股票的行业分类与板块概念数据,同时从tushare与baostock的金融数据接口获得每日交易数据;S2:通过S1中获取的数据构建股票关系图,同时建立模型;S3:通过GAT分类器预测股票趋势的计算特征。本发明通过一系列改进,将股票技术因子用于图注意力网络预测模型的前序时序特征提取,且将股票概念数据用于图注意力网络预测模型的关系图构建,通过一组股票中任意两只股票的概念数据余弦相似度来确定两只股票的相关性,并以相关性最高的n只作为关系图中的邻接点。
-
公开(公告)号:CN114676687A
公开(公告)日:2022-06-28
申请号:CN202210398610.6
申请日:2022-04-15
申请人: 重庆理工大学
发明人: 王勇
IPC分类号: G06F40/247 , G06F40/30 , G06F16/35
摘要: 本发明具体涉及基于增强语义句法信息的方面级情感分类方法,包括:获取待测文本并输入经过预先训练的情感分类模型中,输出对应的分类预测结果;情感分类模型首先通过BERT预训练模型调整待测文本的词向量表示生成初级上下文表示;然后通过图注意力层提取上下文句法信息生成次级上下文表示;进一步更新词向量生成初级词嵌入表示和次级词嵌入表示,并平均池化生成粗粒度表示;再将初级上下文表示和次级上下文表示中的方面词最大池化作为细粒度表示;进而融合粗粒度表示以及细粒度表示中相同的粒度信息生成多粒度融合信息;最后通过分类器基于多粒度融合信息进行情感分类,得到分类预测结果。本发明能够有效克服噪音影响并能够增强语义句法信息。
-
公开(公告)号:CN111428815B
公开(公告)日:2022-05-17
申请号:CN202010300689.5
申请日:2020-04-16
申请人: 重庆理工大学
IPC分类号: G06V10/762 , G06V10/80 , G06K9/62 , G06V10/24 , G06N3/04
摘要: 本发明公开了一种基于Anchorangle机制的机械臂抓取检测方法,包括:对训练集进行聚类得到先验信息;将训练集中的RGB图片和点云数据输入检测模型进行回归得到预测结果;基于预测结果与先验信息的差异对检测模型的参数进行优化调整,减小预测结果与先验信息的差异;优化后的预测结果包括一个抓取位置及其对应的尺寸信息,还包括K个抓取旋转角信息及每个抓取旋转角信息对应的置信度,将最高置信度对应的抓取旋转角信息与抓取位置及其对应的尺寸信息结合得到抓取信息。本发明在抓取检测的过程中保留了原有的点云特征,提高了检测抓取的精准度;减少了网络的计算量,提高了抓取检测的效率;避免了表面由于人工选取带来的偶然性和局限性。
-
公开(公告)号:CN109767463B
公开(公告)日:2021-04-13
申请号:CN201910019924.9
申请日:2019-01-09
申请人: 重庆理工大学
IPC分类号: G06T7/33
摘要: 本发明提供了一种三维点云自动配准方法,为解决传统ICP算法计算效率、精度及易受噪声干扰的问题,本发明首先对源点云和目标点云建立KD‑tree以加快临近点的搜索;然后采用基于法向量和特征直方图的配准方法实现粗配准,并对其中的特征提取部分进行了改进,能有效提取特征点,且不会损失大量特征不明显的点云信息。为了进一步提高配准精度,精配准提出一种改进的多分辨率迭代最近点算法,算法提出利用特征点的稠密度计算点云分辨率,同时对关键点采样方法进行了改进。该方法对于不同规模和含不同程度噪声的点云,在精度、速度、抗噪性方面都得到了改善。
-
公开(公告)号:CN111428815A
公开(公告)日:2020-07-17
申请号:CN202010300689.5
申请日:2020-04-16
申请人: 重庆理工大学
摘要: 本发明公开了一种基于Anchorangle机制的机械臂抓取检测方法,包括:对训练集进行聚类得到先验信息;将训练集中的RGB图片和点云数据输入检测模型进行回归得到预测结果;基于预测结果与先验信息的差异对检测模型的参数进行优化调整,减小预测结果与先验信息的差异;优化后的预测结果包括一个抓取位置及其对应的尺寸信息,还包括K个抓取旋转角信息及每个抓取旋转角信息对应的置信度,将最高置信度对应的抓取旋转角信息与抓取位置及其对应的尺寸信息结合得到抓取信息。本发明在抓取检测的过程中保留了原有的点云特征,提高了检测抓取的精准度;减少了网络的计算量,提高了抓取检测的效率;避免了表面由于人工选取带来的偶然性和局限性。
-
公开(公告)号:CN118710785A
公开(公告)日:2024-09-27
申请号:CN202410877371.1
申请日:2024-07-02
申请人: 重庆理工大学
IPC分类号: G06T13/40 , G06T19/20 , G06N3/0455 , G06N3/0464 , G06N3/0499 , G06N3/048 , G06N3/088
摘要: 本发明公开了基于对比学习的风格化三维人体运动生成方法,涉及三维人体运动生成技术领域;该方法包括以下步骤:通过风格提取器对真实的人体运动序列从局部和全局两个维度提取运动风格特征;通过内容提取器对生成的人体运动序列从局部和全局两个维度提取运动内容特征,且提取过程中同时剥离生成的人体运动序列中原有的运动风格;通过风格注入器将所提取的运动风格特征注入到所提取的运动内容特征中,得到风格化的三维人体运动序列。本发明实现运动风格的注入,且将对比学习的思想应用到模型训练中,提高风格提取器和内容提取器对风格特征和内容特征的提取能力,能够更加准确地表达特定的动作和风格,生成更加逼真和多样化的人体运动序列。
-
公开(公告)号:CN118485587A
公开(公告)日:2024-08-13
申请号:CN202410519201.6
申请日:2024-04-28
申请人: 重庆理工大学
摘要: 本发明公开了一种用于精细化点云补全的增强注意力方法,涉及计算机图形学和计算机视觉技术领域。本发明算法结合多模态信息特征,利用提出的特征增强融合模块高效提取可见信息的几何结构,特征增强模块从多通道特征中定位核心特征,学习缺失数据的空间分布,且算法使用逐级点云细化模块恢复细节几何结构,通过交叉注意力和选择性增强注意力学习输入点云与缺失点云间几何相似性,纠正错误生成的同时细化缺失结构,实验结果证明,本发明算法的点云补全性能优于新颖的基线算法,针对缺失点云能够预测其整体轮廓,在不含对称性等特殊关系时,也能通过学习生成不同类别的细节特征。
-
公开(公告)号:CN117530699A
公开(公告)日:2024-02-09
申请号:CN202311572283.2
申请日:2023-11-23
申请人: 重庆理工大学
IPC分类号: A61B5/346
摘要: 本发明公开了一种基于对比学习的心律失常分类方法,涉及心电分类技术领域。本发明至少包括以下步骤:输入一个心电信号,对其进行两种不同的数据增强,从而去构造正负样本对,正样本为同一心电信号经过不同数据增强后得到的新的心电信号。本发明模仿了图片的数据增强方法,对心电信号采用了两种不同的小波变换(比例=0.5)+分段随机遮挡的方法,在对比学习模型中,合适的数据增强方法至关重要,本发明所采用的方法对正样本对的对比有正向作用,且通过对上分支进行剪枝得到下分支,以找到长尾数据,通过损失函数隐式增加权重。对损失函数采用动态温度系数策略。本发明采用的方法提高了平衡性,并且增强了模型的泛化能力和迁移能力。
-
-
-
-
-
-
-
-
-