-
公开(公告)号:CN118901083A
公开(公告)日:2024-11-05
申请号:CN202380026144.1
申请日:2023-03-07
申请人: 奎蒂安特有限公司
发明人: 大卫·斯科特·埃克森 , 约翰·莱芬韦尔 , 亚历山德鲁·拉布劳 , 斯塔拉·戴蒙德 , 布雷特-迈克尔·托马斯·格林 , 菲利普·安东尼·麦克布莱德 , 萨克希·马丹·卡卡德
摘要: 本公开的各种实施例涉及场景重建和机器学习系统。在实施例中,该系统包括存储介质,存储介质被配置为存储图像数据、一个或多个场景模型、一个或多个可重新照亮物质场、以及与机器学习模型相关的信息。在一个或多个实施例中,该系统包括输入电路,该输入电路被配置为接收图像数据,该图像数据表征场景中的光。在实施例中,该系统包括处理器。在实施例中,该处理器被配置为使用图像数据来重建表示该场景的场景模型。在实施例中,该处理器被配置为:从表示对象的场景模型中提取可重新照亮物质场,将场景模型和表示该对象的可重新照亮物质场存储在存储介质中,应用可重新照亮物质场作为机器学习模型的输入,并且从机器学习模型生成输出。
-
公开(公告)号:CN117714860B
公开(公告)日:2024-10-01
申请号:CN202310962315.3
申请日:2023-08-01
申请人: 上海荣耀智慧科技开发有限公司
摘要: 本申请应用于人工智能领域,提供了一种图像处理方法及电子设备,该方法包括:获取待处理数据,待处理数据包括第一图像、第二图像和差异数据,差异数据表示第一图像和第二图像之间的差异,第一图像和第二图像是在镜头位于初始位置的情况下传感器中第一元件集合和第二元件集合分别得到的图像,第一元件集合包括多个第一感光元件,第一感光元件用于接收经镜头传输至所在像素的第一侧的光线,第二元件集合包括多个第二感光元件,第二感光元件用于接收经镜头传输至所在像素的第二侧的光线,第一侧与第二侧表示的方向相反;利用处理模型对待处理数据进行处理,以得到对焦信息,对焦信息表示镜头的移动矢量。该方法能够提高得到的对焦信息的准确度。
-
公开(公告)号:CN112446842B
公开(公告)日:2024-09-06
申请号:CN201910799288.6
申请日:2019-08-28
申请人: 深圳市光鉴科技有限公司
摘要: 本发明提供的一种基于稀疏和稠密深度图的图像重建方法、系统、设备及介质,包括基于第一红外图像对第一深度图像中每一像素点深度信息确定一第一置信度,基于第二红外图像对第二深度图像中每一像素点深度信息确定一第二置信度;在第一深度图像中提取目标物体的边缘轮廓区域深度信息,对边缘轮廓区域深度信息确定第一融合系数,对目标物体所在区域的深度信息确定第二融合系数;将基于第一置信度、第一融合系数和第二融合系数在第一深度图像筛选出的像素点以及基于第二置信度在第二深度图像筛选出的像素点进行融合生成目标深度图像。本发明在两幅深度筛选出多个像素点生成目标深度图像,得到精度更高的深度图。
-
公开(公告)号:CN118521516A
公开(公告)日:2024-08-20
申请号:CN202410968911.7
申请日:2024-07-19
申请人: 深圳明锐理想科技股份有限公司
摘要: 本发明涉及半导体技术领域,尤其涉及一种深度图校正方法、电子设备及存储介质,所述方法包括:获取输入的展开相位图,并对展开相位图进行预处理;遍历预处理后的展开相位图,检测相位值异常的位置生成异常相位掩膜,且检测相位图截面中的异常平台生成异常平台掩膜;融合异常相位掩膜与异常平台掩膜获得总掩膜;输入对应的深度图并将总掩膜应用于深度图,以进行校正并输出校正后深度图。该方法基于展开相位图进行滤波,通过利用展开相位图的物理特性,可以无视拉尖点的大小、高低及拍摄场景的复杂度,快速准确地检测并校正深度图中的拉尖点,从而能快速准确地还原得到产品结构的三维结果,提升产品结构三维还原的准确性。
-
公开(公告)号:CN118521515A
公开(公告)日:2024-08-20
申请号:CN202410968908.5
申请日:2024-07-19
申请人: 深圳明锐理想科技股份有限公司
摘要: 本发明实施例涉及半导体技术领域,尤其涉及一种深度图校正方法、电子设备及存储介质,所述方法包括:获取光线投射于待检测物品表面所产生的目标图像;基于目标图像获取展开相位图和深度图;统计展开相位图中像素点的相位值以获得相位值信息,基于相位值信息,确定展开相位图中的异常像素点;剔除深度图中与异常像素点对应的像素点,以校正深度图。该方法基于展开相位图进行滤波,通过利用展开相位图的物理特性,快速准确地检测出展开相位图中相位值异常的异常像素点(对应于深度图的阴影区域及高亮区域),以校正深度图,从而能够在减少复数光机使用的同时,改善产品结构三维还原的准确性。
-
公开(公告)号:CN118501896A
公开(公告)日:2024-08-16
申请号:CN202410661025.X
申请日:2024-05-27
申请人: 深圳市光鉴科技有限公司 , 重庆光鉴傲深科技有限公司 , 珠海横琴光鉴科技有限公司
IPC分类号: G01S17/894 , G01S17/93 , G01S17/08 , G01S7/497 , G01B11/25 , G06T7/557 , G06T5/90 , G06T5/73 , G06T5/80 , G06T5/60 , G06T5/50
摘要: 一种TOF与线结构光融合方法、系统、设备及存储介质,其特征在于,包括:步骤S1:获取深度图像,并确定TOF深度的有效范围;其中,所述深度图像由同时接收的多条线与泛光信号生成;步骤S2:计算TOF深度,并根据TOF深度对线进行解码,确定所述线的编号;步骤S3:根据所述编号,使用结构光技术计算所述线对应的结构光深度。本发明仅需一次投射就可以获得结构光深度,具有测量速度快、重建精度高、测量范围广、资源消耗少、鲁棒性高的优点。
-
公开(公告)号:CN112446843B
公开(公告)日:2024-08-06
申请号:CN201910799300.3
申请日:2019-08-28
申请人: 深圳市光鉴科技有限公司
摘要: 本发明提供了一种基于多深度图的图像重建方法、系统、设备及介质,包括:获取至少一目标物体的多个深度图像,多个所述深度图像具有不同的像素点密度;对每一所述深度图像中每一像素点分别确定一筛选系数;对每一所述深度图像中每一像素点通过对应的所述筛选系数进行筛选,以生成多个筛选出的像素点;将多个所述深度图像中筛选出的多个像素点进行融合以生成目标深度图像。本发明能够在多个具有不同的像素点密度的深度图像中筛选出多个像素点,从而筛选出的多个像素点进行融合生成目标深度图像,从而能够在综合多个深度图像中精度更高的像素点,生成更为精细的深度图。
-
公开(公告)号:CN118424099A
公开(公告)日:2024-08-02
申请号:CN202310099079.7
申请日:2023-01-31
申请人: 华中科技大学
摘要: 本发明公开了一种多焦面斜光片结构光三维点云重建方法、装置,属于生物医学成像技术领域,包括:照明光以斜光片照射样本,通过多个相机拍摄采集对应的图像帧序列;在图像帧序列中确定同一个荧光分子的成像光斑,采用二维高斯函数拟合成像光斑,获得质心坐标和标准差参数;获取预设的标定曲线,根据标准差参数结合标定曲线,获得荧光分子的三维坐标;根据相机的焦面与水平方向的夹角,将三维坐标变换为正置三维坐标;根据位移台的移动步长将正置三维坐标变换为全局三维坐标,重建多个相机的三维点云;获取多相机配准文件,根据多相机配准文件对多个相机的三维点云进行配准,获得三维点云深度图像。本发明实现了大体积样本的快速扫描成像与重建。
-
公开(公告)号:CN113129352B
公开(公告)日:2024-07-26
申请号:CN202110485198.7
申请日:2021-04-30
申请人: 清华大学
IPC分类号: G06T7/557
摘要: 本发明实施例公开了一种稀疏光场重建方法,包括:根据稀疏光场信息中的二维图像的特征相似性提取目标物体的初始轮廓;建立目标物体与动态三维场景之间的映射关系;映射关系包括至少一个局部映射关系;局部映射关系表征目标物体一个表面与动态三维场景之间的映射关系;根据映射关系计算目标物体每个表面的几何信息与色彩信息;根据目标物体各表面的几何信息与色彩信息建立目标物体的大场景全局表面模型与三维图像。本发明实施例提供的稀疏光场重建方法,通过构建并求解目标物体表面与动态三维场景之间的映射关系,利用稀疏视角的二维图像数据实现了对目标物体的大场景全局表面模型与三维图像的重建,降低了对三维几何标注数据的依赖和存储复杂度,并提高了光场重建精度与效率。
-
公开(公告)号:CN111754561B
公开(公告)日:2024-07-26
申请号:CN202010523449.1
申请日:2020-06-10
申请人: 江南大学
IPC分类号: G06T7/557 , G06T7/00 , G06N3/045 , G06N3/0895
摘要: 本发明公开一种基于自监督深度学习的光场图像深度恢复方法及系统,所述方法,包括:根据预设图像组的三维极平面图像提取每张图像的多维特征,得到每张图像的特征张量;根据所述每张图像的多维特征确定预处理图像组的拟合成本量;根据所述拟合成本量确定每张图像的最优标签,生成图像组的每张图像的视差图。本方案,可有效恢复光场图像中全视点的光场深度,准确高效,填补了本领域的一大技术空白。
-
-
-
-
-
-
-
-
-