-
公开(公告)号:CN107341001A
公开(公告)日:2017-11-10
申请号:CN201710332876.X
申请日:2017-05-12
申请人: 成都斯斐德科技有限公司
IPC分类号: G06F9/44
CPC分类号: G06F8/38
摘要: 本发明提供一种Android应用的裸眼3D显示方法,包括以下步骤:1.创建新的Android工程;2.在主窗体布局界面Activity中创建用户界面,绘制3D区域并预置深度信息;3.在每个3D区域添加功能组件并添加材质;4.将编辑好的主窗体布局界面Activity进行深度立体渲染;5.导入3D引擎库并为UI界面添加3D特效;6.将Android应用界面在裸眼3D显示界面中按照Android多视点合成重新渲染;7.将渲染成裸眼3D显示界面的Android工程发布成apk并在Android移动设备安装运行。本发明是一种全新的Android设备显示方法,该方法可以在Android系统中显示真实的3D图形影像,塑造一种全新的裸眼3DUI显示界面让用户和移动设备进行具有真实感的人机交互,摆脱2D屏幕的束缚。
-
公开(公告)号:CN104301706B
公开(公告)日:2017-03-15
申请号:CN201410533537.4
申请日:2014-10-11
申请人: 成都斯斐德科技有限公司
摘要: 本发明涉一种可以增强裸眼立体显示效果的合成方法,包括:a.根据不同的输入数据进行不同的深度信息获取;b.如果是双目数据,则通过特征匹配,建立能量函数来获得最优视差;c.如果是图像+深度信息,则提取视差信息并进行滤波去噪获取最优视差;d.对深度信息进行分割,划分并标记不同的区域;e.对每一块区域重新预估最优视差;f.调整视差偏移参数得到合适的深度空间;g.根据绘制规则合成多视点图像,输出到裸眼电视上。本发明能够有效解决裸眼电视立体效果不佳的显示问题。并且在各种分辨率下都能够有效合成景深和出屏感都非常强的多视点图像。同时解决了合成多个视点计算量庞大的问题,减少了计算多视点图像中重复计算无效视点的问题。
-
公开(公告)号:CN104301706A
公开(公告)日:2015-01-21
申请号:CN201410533537.4
申请日:2014-10-11
申请人: 成都斯斐德科技有限公司
摘要: 本发明涉一种可以增强裸眼立体显示效果的合成方法,包括:a.根据不同的输入数据进行不同的深度信息获取;b.如果是双目数据,则通过特征匹配,建立能量函数来获得最优视差;c.如果是图像+深度信息,则提取视差信息并进行滤波去噪获取最优视差;d.对深度信息进行分割,划分并标记不同的区域;e.对每一块区域重新预估最优视差;f.调整视差偏移参数得到合适的深度空间;g.根据绘制规则合成多视点图像,输出到裸眼电视上。本发明能够有效解决裸眼电视立体效果不佳的显示问题。并且在各种分辨率下都能够有效合成景深和出屏感都非常强的多视点图像。同时解决了合成多个视点计算量庞大的问题,减少了计算多视点图像中重复计算无效视点的问题。
-
公开(公告)号:CN104270625A
公开(公告)日:2015-01-07
申请号:CN201410526966.9
申请日:2014-10-09
申请人: 成都斯斐德科技有限公司
摘要: 本发明提出一种减弱自由立体显示赝立体像的合成图生成方法,利用N幅视差图,并将第N幅视差图进行处理来生成一幅合成图的方法。合成图显示所产生的视区中,N-2个子视区宽度为正确立体视区,1个子视区宽度为二维视区,1个子视区宽度为赝立体视区。此合成方法不仅可减小赝立体视区的宽度,还可减小赝立体视区中错误的视差,从而可减弱观看自由立体显示时产生的视疲劳,提高观看舒适度。
-
公开(公告)号:CN104243965A
公开(公告)日:2014-12-24
申请号:CN201410523577.0
申请日:2014-10-08
申请人: 成都斯斐德科技有限公司
摘要: 本发明提出一种提升自由立体显示分辨率的方法,记录显示场景信息的视差图以多路视频的格式存储,在合成图的生成过程中,通过分离和并行解码,即可每次得到n幅视差图,进而可生成一幅多视点合成图像。与多宫格视频源生成合成图的方法相比,本发明无需缩放步骤,即合成图中每一个子像素的显示值均能准确反映记录场景信息,从而提升显示分辨率。
-
公开(公告)号:CN107193380B
公开(公告)日:2020-04-03
申请号:CN201710382295.7
申请日:2017-05-26
申请人: 成都斯斐德科技有限公司
IPC分类号: G06F3/01
摘要: 本发明提供了一种高精度虚拟现实定位系统。该系统包括头戴定位单元,手柄定位单元和墙面或地面定位点单元;本发明的实施方式还提供了一种虚拟现实定位系统,包括:空间定位校准方法,空间定位实施方法和虚拟交互空间定位方法;本发明相比于现有技术设备,可以更加快速的定位虚拟现实设备佩戴者的空间位置,并且可以在广阔的空间中准确的定位位置信息;该系统结构简单,操作便利是一种低成本高效能的虚拟现实空间定位技术;该方法还结合虚拟现实交互系统,能够给使用设备者带来全新的虚拟现实交互体验。
-
公开(公告)号:CN107483912B
公开(公告)日:2019-01-25
申请号:CN201710767972.7
申请日:2017-08-31
申请人: 成都斯斐德科技有限公司 , 重庆大学
IPC分类号: H04N13/30 , H04N13/302
摘要: 本发明公开了一种基于浮点型柱状透镜光栅的多视点图像融合方法,在现有技术基础上,针对系数阵列生成,采用先乘除法后取余运算,然后再对行和列的计算进行变形,这样不仅能减少取余运算的个数,而且也能使得变形之后的计算中减少了浮点型数据的乘法运算,计算量更少。在行、列变形之后的公式上,转化取余运算,硬件中没有对于浮点型数据的取余运算,通过一个比较器转化为硬件能实现的加减运算;同时,在进行图像子像素采集时,融合图像中的每一个子像素来源于不同的两个视点,且每个视点占不同的比例,这样将多幅视图进行子像素采集并加权融合成一幅适合于浮点型柱状透镜光栅显示的裸眼3D图像,在保证精度的同时,更加节省硬件资源。
-
公开(公告)号:CN106527857A
公开(公告)日:2017-03-22
申请号:CN201610962545.X
申请日:2016-10-28
申请人: 成都斯斐德科技有限公司
IPC分类号: G06F3/0481 , G06T19/00
CPC分类号: G06F3/04815 , G06T19/006
摘要: 本发明提供一种基于虚拟现实的全景视频交互方法。该方法步骤:获取全景视频的图像信息,通过解码获得全景视频的图像纹理序列;将全景视频的图像纹理序列进行UV坐标变换;创建一个球体模型Sphere,将全景视频的图像纹理按照UV坐标从顶点坐标开始投影在Sphere的背面;在Sphere内部添加一组交互模型组件;添加标签交互模块,触控交互模块,特效交互模块;在Sphere中心点位置添加虚拟现实显示模块并进行球形反畸变,将最终输出的结果传输到虚拟现实头戴显示器。该方法将交互性体验融入到了线性的视频内容中大大增强了观众的主动性和选择性,不仅让观众接收了更加丰富的三维立体影音信息,还吸引了观众参与其给全景视频增添了更多的娱乐性。
-
公开(公告)号:CN104270625B
公开(公告)日:2016-08-17
申请号:CN201410526966.9
申请日:2014-10-09
申请人: 成都斯斐德科技有限公司
摘要: 本发明提出一种减弱自由立体显示赝立体像的合成图生成方法,利用N幅视差图,并将第N幅视差图进行处理来生成一幅合成图的方法。合成图显示所产生的视区中,N?2个子视区宽度为正确立体视区,1个子视区宽度为二维视区,1个子视区宽度为赝立体视区。此合成方法不仅可减小赝立体视区的宽度,还可减小赝立体视区中错误的视差,从而可减弱观看自由立体显示时产生的视疲劳,提高观看舒适度。
-
公开(公告)号:CN108416769A
公开(公告)日:2018-08-17
申请号:CN201810174574.9
申请日:2018-03-02
申请人: 成都斯斐德科技有限公司 , 重庆大学
摘要: 本发明公开了一种基于预处理的IVOCT图像易损斑块自动检测方法,首先收集含有易损斑块的正样本IVOCT图像和不含易损斑块的负样本IVOCT图像,将样本IVOCT图像从笛卡尔坐标系转换至极坐标系并进行去噪处理,将每张IVOCT图像各自进行首尾拼接,在拼接IVOCT图像中采用原图像大小的滑动窗口提取图像并得到所提取图像的镜像图像,然后对每张图像各自进行首尾拼接,从而对样本数据进行增强,采用增强后的训练样本集对Faster R-CNN网络进行训练,采用训练得到的Faster R-CNN网络对待检测IVOCT图像进行易损斑块检测,对检测后的图像进行重叠易损斑块区域处理,再进行坐标系还原。本发明可以有效改善IVOCT图像易损斑块自动检测的技术性能,结果更具有客观性,可以大大减少医生的工作量。
-
-
-
-
-
-
-
-
-