-
公开(公告)号:CN109829981B
公开(公告)日:2023-06-27
申请号:CN201910118912.1
申请日:2019-02-16
申请人: 深圳市未来感知科技有限公司
摘要: 本发明公开了一种三维场景呈现方法、装置、设备及存储介质,该方法包括:获取虚拟场景中虚拟相机与虚拟屏幕的第一空间位置关系;根据所述第一空间位置关系获得所述虚拟相机的视图矩阵,并基于观察模式获得所述虚拟相机的投影矩阵;基于所述视图矩阵和所述投影矩阵,获得所述虚拟场景中的所述虚拟相机的纹理;将所述纹理输入图形处理器,由所述图形处理器将所述纹理对应的虚拟场景渲染到显示设备。针对不同类型的虚拟场景来选择不同的三维场景呈现方法,由观察模式决定三维场景呈现方式,因而处于不同的观测角度的用户都能获得最佳视角,提高了用户的沉浸式体验。
-
公开(公告)号:CN110956642A
公开(公告)日:2020-04-03
申请号:CN201911225045.8
申请日:2019-12-03
申请人: 深圳市未来感知科技有限公司
摘要: 本申请公开了一种多目标跟踪识别方法、终端和计算机可读存储介质,首先确定各目标的设备属性;然后基于所述设备属性,确定各所述目标需要的空间位置信息;最后基于各所述目标需要的空间位置信息,实现多目标的跟踪识别,从而在跟踪定位过程中有效区分出多个目标,并且获得多个目标的空间位置信息,从而有效提升了交互过程中定位的精确度和稳定性。
-
公开(公告)号:CN108921097B
公开(公告)日:2022-08-23
申请号:CN201810716351.0
申请日:2018-07-03
申请人: 深圳市未来感知科技有限公司
摘要: 本发明公开了一种人眼视角检测方法,通过在立体显示器开始播放立体显示内容时,通过相机拍摄二维图像确定是否能检测到3D眼镜;然后在确定能检测到3D眼镜时,根据所述3D眼镜上的预设特征点确定3D眼镜的位置;之后基于所述3D眼镜的位置确定人眼视角。本发明还公开了一种人眼视角检测装置及计算机可读存储介质。本方法利用3D眼镜上的特征点姿态近似于人眼观看视角的特点,通过检测和追踪3D眼镜的空间位置,实现对人眼视角的追踪,为操作者提供了更好的三维沉浸效果。
-
公开(公告)号:CN108881891A
公开(公告)日:2018-11-23
申请号:CN201810779353.4
申请日:2018-07-16
申请人: 深圳市未来感知科技有限公司
IPC分类号: H04N13/337 , H04N13/398
摘要: 本发明公开一种3D眼镜及3D眼镜的镜片控制方法,3D眼镜包括镜框、设置于所述镜框内的多个镜片以及均设置于所述镜框上的红外接收器、微控制单元与电池管理电路,所述电池管理电路与所述微控制单元连接;所述红外接收器包括探头、设置于所述探头上的窄带滤光片以及红外接收电路,所述红外接收电路分别与所述微控制单元、所述探头连接,所述窄带滤光片能够接收处于935nm~965nm范围内的红外信号。桌面式3D交互系统包括多个发射器以及多个3D眼镜,所述红外接收器与所述发射器信号连接。本发明技术方案能够满足多人观看3D影视的效果并能够自由切换,并且红外线的抗干扰性强,稳定性高,经济成本低。
-
公开(公告)号:CN113672866B
公开(公告)日:2024-07-02
申请号:CN202110855335.1
申请日:2021-07-27
申请人: 深圳市未来感知科技有限公司
发明人: 刘志愿
摘要: 本发明公开了一种测量点坐标标定方法,该方法包括获取第一标定点与第二标定点的真实相对距离和基于至少两个测量点获取第一标定点与第二标定点的测量相对距离;进而根据真实相对距离和测量相对距离获得测量误差,再通过改变第一标定点与第二标定点的位置坐标,循环上述测量误差的获取步骤;最后通过最小化测量误差总和,获得测量点优化坐标。本发明还公开了一种测量点坐标标定装置、设备及存储介质。本发明利用两个标定点对测量点进行标定,通过综合标定点在不同位置时的测量误差,获得测量误差总和最小时对应测量点的优化坐标,将测量点的原始坐标替换为优化坐标,进而获得测量系统中更精确的测量点坐标,最终达到提高测量系统的测量精度的效果。
-
公开(公告)号:CN109859216A
公开(公告)日:2019-06-07
申请号:CN201910119576.2
申请日:2019-02-16
申请人: 深圳市未来感知科技有限公司
摘要: 本发明公开了一种基于深度学习的测距方法、装置、设备及存储介质,该方法包括:在接收到各个观测点针对同一观测对象分别捕获的各个待识别测距图像时,将所述各个待识别测距图像关联,得到目标关联测距图像集合;将所述目标关联测距图像集合输入至预设深度学习网络模型中,以确定所述观测对象的目标位置,其中,所述预设深度学习网络模型是已经训练完成的基于关联测距图像集合确定观测对象位置的模型;输出所述观测对象的目标位置。本发明解决现有技术中需要繁琐的标定过程才能测距的技术问题。
-
公开(公告)号:CN109714588A
公开(公告)日:2019-05-03
申请号:CN201910126050.7
申请日:2019-02-16
申请人: 深圳市未来感知科技有限公司
IPC分类号: H04N13/332 , H04N13/349
摘要: 本发明公开了一种多视点立体图像定位输出方法、装置、设备以及存储介质,该方法包括:获取作为视点的外部设备的设备标识,并计算各所述设备标识相对显示设备的空间位置;根据所述设备标识的标识个数确定所述显示设备待输出单元图像的输出频率和输出序列;根据所述外部设备的空间位置,得到与所述外部设备对应的目标单元图像;控制所述显示设备按照所述输出频率和输出序列,输出各所述外部设备的目标单元图像,并同步控制所述外部设备对各自的目标单元图像的接收,以实现各所述外部设备所在视点的立体图像输出。解决了现有的立体渲染技术及3D显示不适用于多人虚拟空间交互场景的技术问题。
-
公开(公告)号:CN108958483A
公开(公告)日:2018-12-07
申请号:CN201810696389.6
申请日:2018-06-29
申请人: 深圳市未来感知科技有限公司
IPC分类号: G06F3/01 , G06F3/0346
CPC分类号: G06F3/013 , G06F3/0346
摘要: 本发明公开了一种基于交互笔的刚体定位方法、装置、终端设备及存储介质。本发明通过在交互笔内设置方向传感器,并辅以设置于立体显示设备上的视觉传感器,在交互过程中,通过利用视觉传感器采集到的交互笔上发光标记点的成像图片中各发光标记点的定位信息,确定在视觉传感器的视角中,交互笔在三维空间中的第一自由度姿态位置信息,并根据确定的第一自由度姿态位置信息,对方向传感器确定的交互笔在三维空间中的第二自由度姿态位置信息(基于方向传感器的视角)进行校准,得到精确度较高的第三自由度姿态位置信息,最后根据第三自由度姿态位置信息来确定交互笔在三维空间中的实际位置,从而有效提升了交互过程中定位的精确度和稳定性。
-
公开(公告)号:CN108921097A
公开(公告)日:2018-11-30
申请号:CN201810716351.0
申请日:2018-07-03
申请人: 深圳市未来感知科技有限公司
摘要: 本发明公开了一种人眼视角检测方法,通过在立体显示器开始播放立体显示内容时,通过相机拍摄二维图像确定是否能检测到3D眼镜;然后在确定能检测到3D眼镜时,根据所述3D眼镜上的预设特征点确定3D眼镜的位置;之后基于所述3D眼镜的位置确定人眼视角。本发明还公开了一种人眼视角检测装置及计算机可读存储介质。本方法利用3D眼镜上的特征点姿态近似于人眼观看视角的特点,通过检测和追踪3D眼镜的空间位置,实现对人眼视角的追踪,为操作者提供了更好的三维沉浸效果。
-
公开(公告)号:CN113672866A
公开(公告)日:2021-11-19
申请号:CN202110855335.1
申请日:2021-07-27
申请人: 深圳市未来感知科技有限公司
发明人: 刘志愿
摘要: 本发明公开了一种测量点坐标标定方法,该方法包括获取第一标定点与第二标定点的真实相对距离和基于至少两个测量点获取第一标定点与第二标定点的测量相对距离;进而根据真实相对距离和测量相对距离获得测量误差,再通过改变第一标定点与第二标定点的位置坐标,循环上述测量误差的获取步骤;最后通过最小化测量误差总和,获得测量点优化坐标。本发明还公开了一种测量点坐标标定装置、设备及存储介质。本发明利用两个标定点对测量点进行标定,通过综合标定点在不同位置时的测量误差,获得测量误差总和最小时对应测量点的优化坐标,将测量点的原始坐标替换为优化坐标,进而获得测量系统中更精确的测量点坐标,最终达到提高测量系统的测量精度的效果。
-
-
-
-
-
-
-
-
-