摘要:
전자 장치가 컨볼루션 신경망(Convolution Neural Network: CNN) 모델을 이용하여 동영상 내에서 객체를 추론하는 방법이 제공된다. 상기 방법은, 상기 동영상 내의 복수의 프레임들 중 제1 프레임을, 상기 컨볼루션 신경망 모델 내의 순차적으로 연결된 복수의 컨볼루션 레이어 그룹들에 제공하여, 상기 제1 프레임 내의 제1 관심 영역 및 상기 제1 관심 영역 내의 제1 객체를 식별하는 단계, 복수의 프레임들 중 제2 프레임 내의 제2 관심 영역을 식별하되, 상기 제2 관심 영역은 상기 제1 관심 영역에 대응되고, 상기 제2 프레임은 상기 제1 프레임 이후의 프레임인, 단계, 상기 제2 관심 영역을 상기 컨볼루션 신경망 모델에 제공하고, 상기 복수의 컨볼루션 레이어 그룹들 중 제1 컨볼루션 레이어 그룹으로부터 출력되는 제1 출력 데이터를 획득하는 단계, 상기 제1 출력 데이터에 기초하여, 상기 복수의 컨볼루션 레이어 그룹들 중에서 상기 제1 컨볼루션 레이어 그룹 이후의 제2 컨볼루션 레이어 그룹을 이용하여, 상기 제2 관심 영역 내의 제2 객체를 식별할 지를 결정하는 단계를 포함할 수 있다.
摘要:
L'invention concerne un procédé de segmentation automatique d'une arcade dentaire comprenant une acquisition d'une surface tridimensionnelle de l'arcade dentaire, pour obtenir une représentation tridimensionnelle comprenant un ensemble de vertex, une génération de vues virtuelles à partir de la représentation tridimensionnelle, une projection de la représentation tridimensionnelle sur chaque vue virtuelle bidimensionnelle, pour obtenir une image représentant chaque vertex sur la vue virtuelle, un traitement de chaque image par un réseau d'apprentissage profond, une projection inverse de chaque image pour attribuer à chaque vertex de la représentation tridimensionnelle, un ou plusieurs pixels des images dans lequel le vertex apparait et auquel il correspond, et en attribuant à chaque vertex un ou des vecteurs de probabilité, une détermination de la classe de tissu dentaire à laquelle appartient le plus probablement chaque vertex à partir du ou des vecteurs de probabilité.
摘要:
도로면 폐색 영역 복원 장치 및 방법이 개시된다. 본 발명의 도로면 폐색 영역 복원 장치는 MMS(Mobile Mapping System)에 의해 획득된 3차원 점군에서 이상 점군을 제거하는 이상 점군 제거 로직; 이상 점군 제거 로직에 의해 이상 점군이 제거된 영상에서 폐색 영역을 검출하는 폐색 영역 검출 로직; 폐색 영역 검출 로직에 의해 검출된 폐색 영역에 가상의 점군을 생성하는 점군 생성로직; 및 점군 생성로직에 의해 생성된 가상의 점 각각을 다시점 이미지로 투영하고, 다시점 이미지 내 가상의 점 각각의 색상을 그레이 스케일로 변경하여 폐색 영역을 복원하는 폐색 영역 복원 로직을 포함하는 것을 특징으로 한다.
摘要:
Die Erfindung betrifft ein System zur dynamischen Kontrastmaximierung zwischen Vordergrund und Hintergrund in Bildern oder/und Bildsequenzen, umfassend wenigstens eine Bildaufnahmeeinrichtung (C1, C2), wenigstens ein mit der Bildaufnahmeeinrichtung (C1, C2) verbundenes Analysemodul (A1, A2), das dazu eingerichtet ist, eine Transformation zwischen einem zweidimensionalen Koordinatensystem der Bildaufnahmeeinrichtung (C1, C2) und einem zweidimensionalen Koordinatensystem einer Displayvorrichtung (L) zu bestimmen, eine Segmentierung durchzuführen, um in einem Bild wenigstens Verdeckungen von Hintergrundobjekten durch Vordergrundobjekte zu bestimmen, wenigstens ein mit dem Analysemodul (A1, A2) verbundenes Kontrollmodul (K), wenigstens eine Displayvorrichtung (L), die dazu eingerichtet ist, Anzeigeinformation, insbesondere Videoclips, darzustellen, wobei die Bildaufnahmeeinrichtung (C1. C2) dazu eingerichtet ist, die auf der Displayvorrichtung (L) dargestellte Anzeigeinformation aufzunehmen, wobei das Analysemodul (A1, A2) weiter dazu eingerichtet ist, Qualitätsdaten über die Segmentierung zu ermitteln und an das Kontrollmodul (K) zu senden, und wobei das Kontrollmodul (K) dazu eingerichtet ist, die auf der Displayvorrichtung (L) dargestellten Anzeigeinformationen basierend auf den Qualitätsdaten anzupassen.
摘要:
A computer-implemented method for tumor segmentation, the method comprises obtaining image data of a region of interest of a subject's body, wherein the region of interest corresponds to a tumor of the subject's body, generating two or more tumor segmentation predictions based on the image data, calculating a divergence between the two or more tumor segmentation predictions, and generating a visualization of tumor segmentation uncertainty based on the calculated divergence between the two or more tumor segmentation predictions.
摘要:
Verfahren (100) zum Trainieren eines Generators (1) für Bilder (3) aus einer semantischen Karte (2, 5a), die jedem Pixel des Bildes (3) eine semantische Bedeutung (4) eines Objekts, zu dem dieses Pixel gehört, zuordnet, wobei - die vom Generator (1) erzeugten Bilder (3) und das mindestens eine reale Trainingsbild (5), die zur gleichen semantischen Trainingskarte (5a) gehören, werden einem Diskriminator (7) zugeführt (140), woraufhin der Diskriminator (7) eine semantische Segmentierung (6) des ihm zugeführten Bildes (3, 5) ermittelt (150), die jedem Pixel dieses Bildes (3, 5) eine semantische Bedeutung (4) zuordnet; - aus der vom Diskriminator (7) ermittelten semantischen Segmentierung (6) wird ausgewertet (160), ob das dem Diskriminator (7) zugeführte Bild (3, 5) ein erzeugtes Bild (3) oder ein reales Trainingsbild (5) ist.
摘要:
The invention relates to a computing system and a computer-implemented method for classifying images of retina of eyes of subjects. A captured image of a retina is processed to obtain a plurality of different segmented images each having different selected portions of the captured image using different selection rules. The multiple segmented images are provided to respective dedicated machine learning models to output an image classification based on the respective segmented images provided as input. An ensemble classification is determined based on the multiple classifications obtained by means of the multiple trained machine learning models.
摘要:
A method for segmenting images is provided including tessellating an image obtained from one of an image database and an imaging system into a plurality of sectors; classifying each of the plurality of sectors by applying one or more pre-defined labels to each of the plurality of sectors, wherein the pre-defined labels indicate at least one of an image quality metric (IQM) and a metric of structure; assigning each of the plurality of classified sectors an Image Quality Classification (IQC); identifying anchor sectors among the plurality of classified sectors, applying filtering and edge detection to identify target boundaries; applying contouring across contiguous sectors and using the assigned IQC as a guide to complete segmentation of an edge between any two identified anchor sectors; and smoothing across segmented regions to increase parametric second-order continuity.