Abstract:
The invention relates to a method for combining a first Optical Character Recognition (OCR) (12) and a second OCR (100). The first OCR (12) is run first on an image of string of characters (11). Its output (13) (first identified characters, positions of the characters and likelihood parameters of the characters) is used to generate a first graph (16). Segmentation points related to the positions of the first identified characters (14) are used as input by the second OCR (100) performing a combined segmentation and classification on the image of string of characters (11). The output (17) (second identified characters, positions of the characters and likelihood parameters of the characters) of the second OCR (100) is used to update (20) the first graph (16) to generate a second graph (21) that combines the output (13) of the first OCR (12) with the output (17) of the second OCR (100). Decision models are then used to modify (22) the weights of paths in the second graph (21) to generate a third graph (23). A best path is determined (24) on the third graph (23) to obtain the identification (25) of the characters present in the image of string of characters (11).
Abstract:
Kameragestützte Überwachungsanlagen werden zur Sicherung von Gebäuden oder Plätzen eingesetzt. Derartige Überwachungsanlagen weisen oftmals mindestens eine Überwachungskamera auf, wobei diese als eine starre Überwachungskamera ausgebildet sein kann. Es sind jedoch auch sogenannte PTZ-Kameras (Pan-Tilt-Zoom-Kameras) bekannt, die mittels Stellmotor hinsichtlich des Schwenkwinkels, des Neigungswinkels und einer Vergrößerungseinstellung gesteuert werden können. Es wird eine Clientvorrichtung 2 zur Darstellung von Kamerabilder IK, ZK, SK einer steuerbaren Kamera 3 mit einem Bildschirm 5, mit einer Anzeigeeinrichtung 6 zur Anzeige einer ersten Bilddarstellung auf dem Bildschirm 5, wobei die erste Bilddarstellung ein IST-Kamerabild IK in einem IST-Kamerasichtbereich IK der Kamera 3 zeigt, mit einer Auswahleinrichtung 7, wobei die Auswahleinrichtung 7 zur Auswahl eines SOLL-Kamerasichtbereichs SK der Kamera 3 ausgebildet ist, und mit einer Kommunikationseinrichtung 8 vorgestellt, wobei die Kommunikationseinrichtung 8 zur Anforderung A und zum Empfang eines SOLL-Kamerabilds SK in dem SOLL-Kamerasichtbereich SS ausgebildet ist, wobei die Anzeigeeinrichtung 5 ausgebildet ist, in einer zweiten Bilddarstellung das IST-Kamerabild IK zumindest abschnittsweise lagerichtig und größenrichtig in dem SOLL-Kamerasichtbereich SK und in einer weiteren Bilddarstellung das SOLL-Kamerabild SK lagerichtig und größenrichtig in dem SOLL-Kamerasichtbereich SK anzuzeigen.
Abstract:
The invention relates to a method for combining a first Optical Character Recognition (OCR) (12) and a second OCR (100). The first OCR (12) is run first on an image of string of characters (11). Its output (13) (first identified characters, positions of the characters and likelihood parameters of the characters) is used to generate a first graph (16). Segmentation points related to the positions of the first identified characters (14) are used as input by the second OCR (100) performing a combined segmentation and classification on the image of string of characters (11). The output (17) (second identified characters, positions of the characters and likelihood parameters of the characters) of the second OCR (100) is used to update (20) the first graph (16) to generate a second graph (21) that combines the output (13) of the first OCR (12) with the output (17) of the second OCR (100). Decision models are then used to modify (22) the weights of paths in the second graph (21) to generate a third graph (23). A best path is determined (24) on the third graph (23) to obtain the identification (25) of the characters present in the image of string of characters (11).
Abstract:
A pill identification system identifies a pill type for a pharmaceutical composition from images of the pharmaceutical composition. The system extracts features from images taken of the pill. The features extracted from the pill image include color, size, shape, and surface features of the pill. In particular, the features include rotation-independent surface features of the pill that enable the pill to be identified from a variety of orientations when the images are taken. The feature vectors are applied to a classifier that determines a pill identification for each image. The pill identification for each image is scored to determine identification for the pharmaceutical composition.