-
公开(公告)号:KR1020160070712A
公开(公告)日:2016-06-20
申请号:KR1020150175273
申请日:2015-12-09
Applicant: 다솔 시스템므
Inventor: 메르엘루아
CPC classification number: G06T17/20 , G06F17/11 , G06F17/18 , G06F17/50 , G06T7/50 , G06T15/04 , G06T15/10 , G06T2207/10028 , G06T2207/20076
Abstract: 실제객체를표현하는 3D 모델링된객체를설계하는컴퓨터구현방법이, 실제객체를표현하는 3D 메시, 텍스처링이미지그리고 3D 메시의정점들및 텍스처링이미지의화소들간의매핑을제공하는단계 (S10); 그후 다음형태의확률를최대화하는단계 (S20) 를포함한다:. 최대화하는단계는 3D 메시와 3D 메시의정점들의텍스처좌표들에연관된화소시프트들을에너지의마르코프랜덤필드로서보여주는미리결정된이산마르코프랜덤필드최적화체계로수행된다. 그방법은그 후에텍스처링이미지에, 매핑에, 및최대화하는단계의결과에따라 3D 메시를텍스처링하는단계 (S30) 를포함한다. 이는실제객체를표현하는 3D 모델링된객체를설계하기위한개선된해결책을제공한다.
Abstract translation: 用于设计用于表示真实对象的3D建模对象的计算机实现的方法包括以下步骤:提供用于表示真实对象的3D网格,纹理图像,3D网格的顶点和纹理图像的像素 S10); 然后最大化形式(S20)的概率P(L(V))。 最大化步骤使用预定的离散马尔科夫随机场优化方案来执行,用于观察3D网格和与3D网格的顶点的纹理坐标相关联的像素移位,作为能量-log(P(L(V))的马尔可夫随机场, )) - 日志(Z)。 然后,该方法包括根据纹理图像,映射和最大化步骤的结果(S30)对3D网格进行纹理化的步骤。 因此,提供了用于设计用于表示真实对象的3D建模对象的改进的解决方案。
-
公开(公告)号:KR1020160069801A
公开(公告)日:2016-06-17
申请号:KR1020140175872
申请日:2014-12-09
Applicant: 삼성전자주식회사
IPC: G06T15/00
CPC classification number: G06T15/005 , G06T1/60 , G06T7/50 , G06T11/40 , G06T15/80 , G06T17/20 , G06T2207/10024 , G06T15/00 , Y10S707/99942
Abstract: 일실시예에따른렌더링방법은타일기반렌더링방법에있어서, 현재프레임에대한비닝(bining)을수행하는단계; 상기현재프레임에서렌더링할타일의비닝정보또는상기렌더링할타일의속성정보에대한식별코드를생성하는단계; 상기렌더링할타일의식별코드와이전프레임에서상기렌더링할타일과동일한위치의이전타일의식별코드를비교하는단계; 및상기비교결과에기초하여, 프레임버퍼에저장된이미지를재사용하거나상기렌더링할타일에대한픽셀처리를수행하여상기현재프레임을렌더링하는단계를포함한다.
Abstract translation: 提供了一种用于渲染的方法和装置,其通过跳过相同瓦片的像素处理来减少计算量。 根据实施例的基于瓦片的呈现方法包括以下步骤:对当前帧执行合并; 生成用于对要在当前帧中呈现的瓦片的信息或属性信息进行合并的识别码; 将要渲染的瓦片的识别码与前一帧中的位置与要渲染的瓦片的相同的先前瓦片的识别码进行比较; 以及通过重新使用已经存储在帧缓冲器中的图像或者根据比较的结果对要渲染的图块执行像素处理来渲染当前帧。
-
公开(公告)号:KR1020150140392A
公开(公告)日:2015-12-15
申请号:KR1020157033171
申请日:2014-09-04
Applicant: 이베이 인크.
Inventor: 바드와즈아누라그 , 바이그모하매드해리스 , 피라무스로빈슨 , 자가디쉬비그네쉬 , 디웨이
IPC: G06F17/30
CPC classification number: G06T7/50 , G06F17/3025 , G06F17/30256 , G06F17/30262 , G06F17/30277 , G06K9/00208 , G06K9/4609 , G06T7/194 , G06T7/62 , G06T2207/10024 , G06T2207/10028 , G06T2207/20081
Abstract: 훈련단계중에, 머신은참조이미지들을대응하는깊이정보와함께액세스한다. 머신은시각적서술자및 대응하는깊이서술자를이 정보로부터계산한다. 그리고머신은이 시각적서술자를그것의대응하는깊이서술자와상관시키는맵핑을생성한다. 훈련단계후에, 머신은깊이정보가결여된단일쿼리이미지에기반하여깊이추정을수행할수 있다. 머신은단일쿼리이미지로부터하나이상의시각적서술자를계산하고생성된맵핑으로부터각각의시각적서술자에대한대응하는깊이서술자를획득할수 있다. 획득된깊이서술자에기반하여, 머신은제출된단일쿼리이미지에대응하는깊이정보를생성한다.
Abstract translation: 在训练阶段,机器访问具有相应深度信息的参考图像。 该机器根据该信息计算视觉描述符和相应的深度描述符。 然后,机器生成将这些可视描述符与其相应的深度描述符相关联的映射。 在训练阶段之后,机器可以基于没有深度信息的单个查询图像来执行深度估计。 机器可以从单个查询图像计算一个或多个可视描述符,并从所生成的映射中获得每个可视描述符的相应深度描述符。 基于获得的深度描述符,机器创建对应于提交的单个查询图像的深度信息。
-
公开(公告)号:KR1020150103247A
公开(公告)日:2015-09-09
申请号:KR1020157020931
申请日:2014-01-06
Applicant: 브라이트웨이 비젼 엘티디.
CPC classification number: G01B11/22 , G01C3/08 , G01S7/4811 , G01S7/4817 , G01S7/4873 , G01S17/107 , G01S17/42 , G06T7/50 , H04N5/04 , H04N5/2256 , H04N5/23296 , H04N5/33
Abstract: 동기화된 조명하는 프로세스 및 센싱 프로세스를 사용하여 배경 내 물체들을 검출하는 방법이 여기에 제공된다. 상기 방법은 배경 내 조명 라인을 따라 광 빔을 조명하는 단계; 상기 배경 내 특정된 피사계 심도 내 위치한 물체들로부터, 상기 센싱 라인을 따라 생성되는 광 반사들을 센싱하는 단계; 상기 조명 라인과 상기 센싱 라인 사이의 공간 동기화 속도를 생성하는 단계로서, 상기 동기화는 상기 피사계 심도를 결정하는 단계; 상기 공간 동기화 속도에 기초한 상기 조명 라인 및 상기 센싱 라인 중 적어도 하나를 상대적으로 시프팅하는 단계; 및 상기 반사들을 축적하여, 상기 물체들을 검출하는 단계를 포함한다.
Abstract translation: 本文提供了一种使用同步的照明和感测处理来检测场景中的物体的方法。 该方法包括以下步骤:沿着场景内的照明线照射光束; 感测所述光的反射,其中所述反射沿着感测线来自位于所述场景内的指定景深内的物体; 在所述照明线和感测线之间产生速度空间同步,其中所述同步确定所述景深; 基于所述速度空间同步相对地移动照明线和感测线中的至少一个; 并累积所述反射,从而检测所述物体。
-
公开(公告)号:KR1020150054778A
公开(公告)日:2015-05-20
申请号:KR1020157004940
申请日:2013-08-09
Applicant: 퀄컴 인코포레이티드
CPC classification number: H04N13/204 , G06T7/194 , G06T7/254 , G06T7/50 , G06T7/73 , G06T19/006 , G06T2207/10028
Abstract: 특정실시형태에서, 방법은, 모바일디바이스에서, 픽셀들의제 1 영역을평가하여제 1 결과를발생시키는것을포함한다. 방법은, 모바일디바이스에서, 픽셀들의제 2 영역을평가하여제 2 결과를발생시키는것을더 포함한다. 제 1 결과와제 2 결과사이의차이와임계치를비교하는것에기초하여픽셀들의제 2 영역이장면의배경부분또는장면의전경부분에대응한다는결정이이루어진다.
Abstract translation: 在特定实施例中,一种方法包括在移动设备处评估第一区域的像素以产生第一结果。 该方法还包括在移动设备处评估第二区域的像素以产生第二结果。 基于将阈值与第一结果与第二结果之间的差进行比较,确定第二区域像素对应于场景的背景部分或场景的前景部分。
-
公开(公告)号:KR101497659B1
公开(公告)日:2015-03-02
申请号:KR1020080122440
申请日:2008-12-04
Applicant: 삼성전자주식회사
Inventor: 심재영
CPC classification number: G01S7/497 , G06T7/50 , G06T7/80 , G06T2207/10024 , G06T2207/10028 , H04N13/10 , H04N13/128 , H04N13/15 , H04N13/257 , H04N13/271 , H04N2013/0081
Abstract: 보정 대상 컬러의 컬러 식별 정보와, 기준 컬러의 깊이 값과 상기 보정 대상 컬러의 깊이 값의 차이가 반영된 측정 오차 값에 따라 이루어진 테이블을 구성하고, 상기 테이블을 참조하여 피사체의 깊이 영상을 보정하는 장치 및 방법을 개시한다.
Depth camera, 3D, TOF, Time of flight, Depth calibration, 깊이 보정Abstract translation: 一种用于基于表格校正物体的深度图像的装置和方法,所述表根据目标颜色的颜色识别信息形成,以及第一测量误差,其中基色的地面真值深度值 并且反映了目标颜色的测量深度值。
-
公开(公告)号:KR101385514B1
公开(公告)日:2014-04-16
申请号:KR1020100053963
申请日:2010-06-08
Applicant: 에스케이플래닛 주식회사 , 주식회사 에스칩스
CPC classification number: G06T15/00 , G06T3/4007 , G06T7/50 , H04N13/111 , H04N13/351
Abstract: 본 발명의 일 실시예는 깊이 맵 정보를 이용한 입체 영상 변환 방법 및 장치에 관한 것이다.
본 발명의 일 실시예는 입력된 영상 데이터의 각각의 프레임(Frame) 내에 존재하는 각각의 픽셀(Pixel) 별로 깊이 맵(Depth Map) 정보를 추정하는 깊이 맵 추정부; 상기 각각의 픽셀 별로 상기 깊이 맵 정보만큼 X축 방향으로 이동시키는 깊이 맵 적용부; 상기 이동에 따라 상기 프레임 내에 빈 픽셀이 발생하는 경우, 상기 빈 픽셀의 인접 픽셀들에 가중치를 적용하여 상기 빈 픽셀 내에 보간(Interpolation) 픽셀이 형성되도록 하는 입체 영상 보간부; 및 상기 보간 픽셀을 적용한 좌측 시야용 이미지 및 우측 시야용 이미지가 렌더링(Rendering)되도록 하는 입체 영상 렌더링 처리부를 포함하는 것을 특징으로 하는 깊이 맵 정보를 이용한 입체 영상 변환 장치를 제공한다.
본 발명의 일 실시예에 의하면, 2D 영상 중 자막과 같이 인접 픽셀 간의 깊이 맵 정보에 변화가 큰 영상을 입체 영상으로 변환할 때, 자막의 해당 글자와 같은 오브젝트의 원형을 보존하면서 입체감이 나타나도록 하는 효과가 있다.Abstract translation: 本发明的一个实施例涉及使用深度图信息转换三维图像的方法和装置。 该装置包括深度图估计单元,其估计输入图像数据的每帧中存在的每个像素的深度图信息,通过X轴方向上的深度图信息移动每个像素的深度图应用单元,3D图像 插值单元,当由于移动而在帧中出现空白像素时,通过对空白像素的相邻像素施加权重而在空白像素中形成内插像素,以及渲染左眼的3D图像渲染处理单元 图像和应用了内插像素的右眼图像。
-
公开(公告)号:KR1020140014868A
公开(公告)日:2014-02-06
申请号:KR1020120082012
申请日:2012-07-26
Applicant: 엘지이노텍 주식회사
Inventor: 이규태
CPC classification number: G06K9/2054 , G06K9/00597 , G06T7/50 , G06T2207/10028
Abstract: A method of tracking a line of sight according to an embodiment of the present invention comprises the steps of: acquiring a depth image of a subject; acquiring position information of an eyeball region included in the subject from the acquired depth image; and tracking the line of sight of a user by recognizing a pupil included in the eyeball region based on the acquired position information. [Reference numerals] (AA) Start; (BB) End; (S210) Obtain a three-dimensional distance map; (S220) Obtain X, Y, and Z coordinate information relative to a sight position; (S230) Obtain an enlarged image in which a pupil area is enlarged by using the X, Y, and Z coordinate; (S240) Recognize the pupil from the enlarged image; (S250) Track a user's sight by using a recognized pupil distance
Abstract translation: 根据本发明的实施例的跟踪视线的方法包括以下步骤:获取被摄体的深度图像; 从获取的深度图像中获取包括在被摄体中的眼球区域的位置信息; 以及基于所获取的位置信息,通过识别包括在眼球区域中的瞳孔来跟踪用户的视线。 (附图标记)(AA)开始; (BB)结束; (S210)获取三维距离图; (S220)获取相对于瞄准位置的X,Y,Z坐标信息; (S230)使用X,Y,Z坐标来获取放大的图像,其中瞳孔区域被放大; (S240)从放大图像识别瞳孔; (S250)通过使用识别的瞳距来跟踪用户的视线
-
公开(公告)号:KR1020130128097A
公开(公告)日:2013-11-26
申请号:KR1020120051871
申请日:2012-05-16
Applicant: 전자부품연구원
CPC classification number: G06T7/50 , G06K9/6212 , G06K9/6218 , G06K2009/6213 , G06T7/90
Abstract: A method and an apparatus for recognizing an object using depth information are provided. The object recognition method comprises the following steps of: obtaining a color image and a depth image; grouping the color image into multiple clusters based on depth information included in the depth image; and recognizing an object based on the clusters. As a result, when an object is recognized using point based object recognition, an object recognition rate can be reliably improved although an object does not have enough feature points or a background is complicated. [Reference numerals] (AA) Start;(BB) End;(S110) Obtaining a color image and a depth image;(S120) Grouping the color image into multiple clusters based on depth information;(S130) Matching feature point about clusters and each recognized object;(S140) Performing color histogram comparison about clusters and recognized objects to firstly select some parts inside clusters as candidate parts;(S150) Comparing firstly selected candidate area with depth standard deviation about recognized objects to secondly select;(S160) Excluding feature points matching about clusters in which candidate areas that are selected in S150 step are not included from feature point matching result in S130 step;(S170) When a recognized object is recognized in multiple clusters, process that recognized object as being not recognized;(S180) When multiple recognized object is recognized, Compare top two clusters of matching number with color-relation between recognized object to recognize one recognized object
Abstract translation: 提供了使用深度信息来识别对象的方法和装置。 物体识别方法包括以下步骤:获得彩色图像和深度图像; 基于深度图像中包含的深度信息将彩色图像分组成多个聚类; 并基于该集群识别对象。 结果,当使用基于点的对象识别来识别对象时,虽然对象没有足够的特征点或背景是复杂的,但是可以可靠地改善对象识别率。 (S1)将彩色图像分为多个聚类,基于深度信息;(S130)关于聚类和匹配特征点的匹配特征点(AA)开始;(BB)结束;(S110)获取彩色图像和深度图像; (S140)对群集和识别对象进行颜色直方图比较,首先选择群内的部分作为候选部分;(S150)将首选候选区域与识别对象的深度标准差进行比较,以次要选择;(S160)排除 在S130步骤中从特征点匹配结果中不包括在S150步骤中选择的候选区域的群集的特征点;(S170)当识别的对象被识别为多个群集时,将该识别对象处理为不被识别;( S180)当识别到多个识别对象时,将识别的对象之间的匹配数字的前两个颜色关联对齐,以识别一个识别的对象
-
60.
公开(公告)号:KR1020130057586A
公开(公告)日:2013-06-03
申请号:KR1020110123374
申请日:2011-11-24
Applicant: 에스케이플래닛 주식회사 , 시모스 미디어텍(주)
CPC classification number: G06T7/50 , H04N13/128 , H04N2013/0081 , G06T15/005
Abstract: PURPOSE: A depth map generating apparatus, a depth map generating method, a stereoscopic image converting apparatus and a stereoscopic image converting method are provided to correct an error of a depth map for stereoscopic expression generated in an automatic stereoscopic converting procedure of an image. CONSTITUTION: A feature information extracting unit(210) extracts feature information from an input image. A depth map initializing unit(220) generates an initial depth map about the input image based on the feature information. An FFT(Fast Fourier Transform) transforming unit(230) performs FFT about the input image and transforms the input image into a frequency image. A depth map determining unit(240) calculates a correlation value by using an average value of the initial depth map and a representative value of the frequency image. [Reference numerals] (210) Feature information extracting unit; (220) Depth map initializing unit; (230) FFT(Fast Fourier Transform) transforming unit; (240) Depth map determining unit; (AA) 2D image
Abstract translation: 目的:提供深度图生成装置,深度图生成方法,立体图像变换装置和立体图像变换方法,以校正在图像的自动立体变换处理中生成的立体表达式的深度图的误差。 构成:特征信息提取单元(210)从输入图像中提取特征信息。 深度图初始化单元(220)基于特征信息生成关于输入图像的初始深度图。 FFT(快速傅里叶变换)变换单元(230)对输入图像执行FFT,并将输入图像变换为频率图像。 深度图确定单元(240)通过使用初始深度图的平均值和频率图像的代表值来计算相关值。 (附图标记)(210)特征信息提取单元; (220)深度图初始化单位; (230)FFT(快速傅里叶变换)变换单元; (240)深度图确定单元; (AA)2D图像
-
-
-
-
-
-
-
-
-