-
公开(公告)号:CN105225207B
公开(公告)日:2018-11-30
申请号:CN201510551103.1
申请日:2015-09-01
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种基于观测矩阵的压缩感知成像方法,包括:1)在待感知图像中划分为显著性区域和非显著性区域;2)设置观测矩阵的孔径,所述观测矩阵中,对应于显著性区域的像素尺寸小于其余区域的像素尺寸;3)生成满足有限等距特性的矩阵,将所生成的矩阵各个像素的像素值依序填充到步骤2)设置的观测矩阵中,得到孔径可变观测矩阵;4)基于所述孔径可变观测矩阵获取并记录待感知图像的观测值。本发明能够在保证图像质量的前提下大幅减少压缩感知成像的数据量;能够在保证图像质量的前提下显著减少采样次数,节省采样时间;另外,本发明可直接应用于相机的成像系统,从而在图像采集阶段直接降低采集数据量。
-
公开(公告)号:CN105184808A
公开(公告)日:2015-12-23
申请号:CN201510670734.5
申请日:2015-10-13
Applicant: 中国科学院计算技术研究所
IPC: G06T7/00
CPC classification number: G06T2207/10004
Abstract: 本发明提供一种光场图像前后景自动分割方法,包括:1)基于超像素分割算法将光场图像划分为多个基本区域;2)提取每个基本区域的聚焦度;3)生成各种可能的前后景分割方案,选出使得总代价最小的前后景分割方案,所述总代价是各个基本区域被划分为前景或者背景的单区域代价的和,每个基本区域的所述单区域代价根据该基本区域的聚焦度得出;或者总代价是所有基本区域的单区域代价与相邻基本区域的区域相似度代价的加权和,所述相邻基本区域的区域相似度代价根据被分别划分为前景和后景的两个相邻基本区域的图像特征距离得出。本发明能够对景深差异较小的光场图像进行准确的前后景自动分割,提高分割的准确度;并且本发明的计算量较小。
-
公开(公告)号:CN104735351A
公开(公告)日:2015-06-24
申请号:CN201510100489.4
申请日:2015-03-06
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种高分辨率光场图片重建方法,包括:1)获取所拍摄景象和视角均完全相同的光场图片和数码图片;2)根据所述光场图片与所述数码图片像素的对应关系,将所述光场图片中的光场信息映射到所述数码图片的相应像素上;3)对于映射了光场信息的数码图片中光场信息未知的每一个像素,根据该像素与周围光场信息已知像素的距离,计算出该像素的光场信息。本发明还提供了相应的用于高分辨率光场图片重建的成像装置。本发明显著提高了光场图片的空间分辨率,同时还具有计算复杂度低,处理速度快的优势。
-
公开(公告)号:CN117389177A
公开(公告)日:2024-01-12
申请号:CN202311301164.3
申请日:2023-10-09
Applicant: 中国科学院计算技术研究所
IPC: G05B19/042
Abstract: 本发明提出一种新能源智能收获机电控系统,位于新能源智能收获机内部元件的传感器,用于监测该内部元件的工作状态数据;整车控制器,用于接收该工作状态数据,并根据该工作状态数据为该内部元件的运行状态确定运行类别,该运行类别包括正常作业、低效作业和器件故障;并根据该运行类别控制该新能源智能收获机内继电器的通断和电机的运转,实现该新能源智能收获机的加速、减速、制动、转向、前进后退、换挡和停车动作。本发明的新能源智能收获机电控系统可以方便的实现联合收获机的智能化,同时降低人工运行成本,提高生产效率,实现节能减排。
-
公开(公告)号:CN107784676A
公开(公告)日:2018-03-09
申请号:CN201710911885.4
申请日:2017-09-29
Applicant: 中国科学院计算技术研究所
Abstract: 本发明涉及一种基于自动编码器网络的压缩感知测量矩阵优化方法和系统,包括:获取原始图像作为训练数据,通过分割裁剪处理将训练数据分割多个图像块;根据预设的采样率和自动编码器网络对图像块进行采样,生成初步重建图;根据深度残差网络计算初步重建图和原始图像间的残差值;将残差值与初步重建图相融合,生成重建结果,并根据重建图和图像块建立损失函数,通过损失函数对自动编码器网络中的参数矩阵进行训练,最后将训练完成的自动编码器网络参数作为压缩感知测量矩阵。本发明通过自动编码器对数据维度的变换,模拟实现了图像从采集到重建的过程,其中采集过程的参数即为测量矩阵,并且得到的测量矩阵具有很好的重建质量。
-
公开(公告)号:CN120069407A
公开(公告)日:2025-05-30
申请号:CN202510117544.4
申请日:2025-01-24
Applicant: 中国科学院计算技术研究所
IPC: G06Q10/0631 , G06Q10/047 , G06Q50/02 , G06N20/00 , G06N3/008 , G06N3/042 , G06N3/092
Abstract: 本申请公开了一种基于强化学习的农业多机器人任务分配方法,方法包括:针对待分配的多个农田任务地块,基于农田任务的路径规划算法,计算农田任务的路径成本,并根据路径规划结果,以任务分配的工作量均衡及总路径代价最小作为约束,建立农用车集群的任务分配目标函数;基于强化学习的注意力机制策略优化网络,确定节点和车辆间的分配概率,根据目标函数制定带有节点工作量均衡及总路径代价最小约束的奖励函数,并使用策略梯度法完成任务分配模型训练,输出农用车集群的任务分配方案;农用车集群的每辆车按照给定的任务分配方案,在任务地块上遍历并执行农业操作。本发明方法及其系统用于农业多机器人、多任务的作业调度需求场景,提供即时、合理的机器人与任务分配方案。
-
公开(公告)号:CN117726878A
公开(公告)日:2024-03-19
申请号:CN202410027066.3
申请日:2024-01-08
Applicant: 中国科学院计算技术研究所
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06V20/00 , G06N3/0464 , G06N3/08
Abstract: 本发明提供一种用于全景图像目标检测模型的训练方法以及目标检测方法,目标检测模型采用经过全景数据适配的RetinaNet检测模型;训练方法包括:将训练样本中的全景图像输入至目标检测模型,输出多个预测框及其参数;根据训练样本中全景图像对应的真实框及其参数,计算预测框与真实框的交并比,作为第一交并比;其中,预测框与真实框为球面框;将第一交并比大于第一设定阈值的预测框作为正样本,并基于正样本对应的交并比计算目标检测模型的损失函数;根据损失函数更新目标检测模型的参数,直至目标检测模型收敛。本发明的训练过程可以快速分配正负样本进而提高模型的训练速度和训练后模型的性能。
-
公开(公告)号:CN117444959A
公开(公告)日:2024-01-26
申请号:CN202311377067.2
申请日:2023-10-23
Applicant: 中国科学院计算技术研究所
IPC: B25J9/16
Abstract: 本发明为一种扩展灵活的农用机器人架构构建方法与装置,包括以下步骤:构建感知层步骤,用于接收传感器数据,获取机器人内部与外部环境信息;构建规划层步骤,用于导航路径规划、避障检测控制和导航地图建模;构建决策层步骤,进一步包括:构建高速传输通道步骤,用于构建公告板;对农用机器人的功能进行封装步骤,得到行为节点;根据公告板,对行为节点进行可灵活扩展的执行与控制步骤。
-
公开(公告)号:CN109840922B
公开(公告)日:2021-03-02
申请号:CN201810097816.9
申请日:2018-01-31
Applicant: 中国科学院计算技术研究所
Abstract: 本发明涉及一种基于双目光场相机的深度获取方法和系统,包括:使用场相机拍摄场景,得到场景的视图和光场深度图;使用另一相机对场景进行拍摄,得到场景的另一视图,并根据视图间的视差,得到场景的双目深度图;使用光场相机拍摄具有深度标尺的标定场景,将光场深度图归一化到真实的空间尺度,得到第一真实深度图;使用光场相机拍摄标定场景,将双目深度图归一化到真实的空间尺度,得到第二真实深度图;使用光场深度变化的梯度值,获取光场深度图中各像素点的可信度;根据可信度和马尔科夫随机场,将第一真实深度图和第二真实深度图相融合,得到融合深度图。本发明通过融合光场深度和双目深度,实现从近到远准确计算场景深度的解决方案。
-
公开(公告)号:CN107784676B
公开(公告)日:2020-06-05
申请号:CN201710911885.4
申请日:2017-09-29
Applicant: 中国科学院计算技术研究所
Abstract: 本发明涉及一种基于自动编码器网络的压缩感知测量矩阵优化方法和系统,包括:获取原始图像作为训练数据,通过分割裁剪处理将训练数据分割多个图像块;根据预设的采样率和自动编码器网络对图像块进行采样,生成初步重建图;根据深度残差网络计算初步重建图和原始图像间的残差值;将残差值与初步重建图相融合,生成重建结果,并根据重建图和图像块建立损失函数,通过损失函数对自动编码器网络中的参数矩阵进行训练,最后将训练完成的自动编码器网络参数作为压缩感知测量矩阵。本发明通过自动编码器对数据维度的变换,模拟实现了图像从采集到重建的过程,其中采集过程的参数即为测量矩阵,并且得到的测量矩阵具有很好的重建质量。
-
-
-
-
-
-
-
-
-