摘要:
The subject disclosure is directed towards mixing RGB data with infrared data so as to provide depth-related data in regions where infrared data are sparse. Infrared data, such as corresponding to point cloud data, are processed to determine sparse regions therein. For any such sparse regions, RGB data corresponding to a counterpart region in the RGB data are added to a data structure. The data structure, which may include or be concatenated to the IR data, may be used for depth-related data, e.g., with a point cloud.
摘要:
A sensor transformation attention network (STAN) model including sensors configured to collect input signals, attention modules configured to calculate attention scores of feature vectors corresponding to the input signals, a merge module configured to calculate attention values of the attention scores, and generate a merged transformation vector based on the attention values and the feature vectors, and a task-specific module configured to classify the merged transformation vector is provided.
摘要:
A device (100) and method for walker identification. An audio input interface (141) obtains (S210) a sampled acoustic signal, possibly from a microphone (161), a vibration input interface (142) obtains (S210) a sampled vibration signal, possibly from a geophone (162) and at least one hardware processor (110) fuses (S220) the sampled acoustic signal and the sampled vibration signal into a fused signal, extracts (S230) features from the fused signal and identifies (S240) a walker based on extracted features.
摘要:
Verfahren zur Detektion von zu einem bestimmten Detektionszeitpunkt (t d ) auftretenden sicherheitskritischen Ereignissen (EK) an zu überwachenden Bereichen auf öffentlichen Plätzen, a) wobei mit einzelnen Sensoren (S 1 , S 2 ) Sensormesswerte (m 1 , m 2 ) ermittelt werden, und mehrere Ereigniskarten (C 1 , C 2 ) mit jeweils einer Anzahl von Knoten (N x , N y ) erstellt werden, wobei jeder der Knoten (N x , N y ) oder eine Vielzahl der Knoten (N x , N y ) zumindest einer Ereigniskarte (C 1 , C 2 ) einem Bereich im Messbereich zumindest eines der Sensoren (S 1 , S 2 ) zugeordnet ist, b) wobei eine gemeinsame Karte (C) mit einer Anzahl von Knoten (M z ) vorgegeben wird, wobei jeder der Knoten (M z ) oder eine Vielzahl der Knoten der gemeinsamen Karte (C) einem Bereich im Messbereich zumindest eines der Sensoren (S 1 , S 2 ) zugeordnet ist, c) wobei vorab für jede der einzelnen Ereigniskarten (C 1 , C 2 ) jeweils eine Abbildung (T 1 , T 2 ) auf die gemeinsame Karte (C) vorgegeben wird, die insbesondere Messwerte (m 1 , m 2 ) betreffend denselben Messbereich auf dieselben Knoten (M z ) der gemeinsamen Karte (C) abbildet, und/oder Messwerte betreffend benachbarte Messbereiche auf benachbarte Knoten der gemeinsamen Karte (C) abbildet d) wobei für eine Vielzahl von Aufnahmezeitpunkten (t a ; t a,1 , t a,2 , t a,3 , t a,4 ) oder Aufnahmezeitspannen jeweils aufgrund der ermittelten Sensormesswerte (m 1 , m 2 ) eines oder mehrerer Sensoren (S 1 , S 2 ) nach vorgegebenen Kriterien Ereignisse (E 1 , E 2 , E 3 , E 4 ) erstellt werden, wobei im Falle der Erstellung eines Ereignisses (E 1 , E 2 , E 3 , E 4 ) ermittelt oder festgelegt wird, - der Aufnahmezeitpunkt (t a ) oder eine Aufnahmezeitspanne - für jeden Knoten (N x , N y ) der Ereigniskarte (C 1 , C 2 ) ein dem Ereignis (E 1 , E 2 , E 3 , E 4 ) zugeordneter Intensitätswert (I), - eine Abklingfunktion (a 1 (t); a 2 (t); a 3 (t)) zur Festlegung eines zeitlichen Abklingverhaltens aufgrund der Art des Ereignisses (E 1 , E 2 , E 3 , E 4 ), wobei die Abklingfunktion bei Überschreitung einer vorgegebenen Zeitspanne (t a ) einen vorgegebenen Neutralwert (0) aufweist oder gegen diesen Neutralwert (0) konvergiert, e) für den Detektionszeitpunkt (t d ) sowie für eine Anzahl von Knoten (M z ) der gemeinsamen Karte (C) knotenweise ein Ereigniswert (V z ) bestimmt wird, indem die einzelnen Intensitätswerte (I) aller Ereignisse (E 1 , E 2 , E 3 , E 4 ) betreffend denjenigen Knoten (N x , N y ) der Ereigniskarte (C 1 , C 2 ), die aufgrund der Abbildung (T 1 , T 2 ) auf den betreffenden Knoten (M z ) der gemeinsamen Karte (C) abgebildet oder für eine Interpolation herangezogen werden, oder von diesen Werten abgeleitete Beiträge (J) mit einer Akkumulationsvorschrift gewichtet akkumuliert werden, bei der die Akkumulation des Neutralwerts (0) keinen Beitrag zum Akkumulationsergebnis liefert, und derart der Ereigniswert (V z ) für den betreffenden Detektionszeitpunkt (t d ) ermittelt wird, f) wobei die Intensitätswerte (I) oder die Beiträge (J), die die Intensitätswerte (I) von Ereignissen zur Akkumulation liefern, bei der Erstellung des Ereigniswerts (V z ) im Zuge der Akkumulation jeweils mit einem Wert gewichtet werden, der dem Ergebnis der Anwendung der Abklingfunktion des jeweiligen Ereignisses auf die Zeitspanne (t d -t a ) zwischen dem Detektionszeitpunkt (t d ) und dem Aufnahmezeitpunkt (t a ) oder einem Zeitpunkt innerhalb der Aufnahmezeitspanne des Ereignisses (E 1 , E 2 , E 3 , E 4 ) entspricht, und g) dass für den Fall, dass ein Ereigniswert (V z ) in der gemeinsamen Karte (C) einen vorgegebenen Schwellenwert (Th) übersteigt, ein kritisches Ereignis (EK) im betreffenden Knoten (M z ) der gemeinsamen Karte (C) sowie in dem diesem Knoten (M z ) zugeordneten Bereich im Messbereich eines der Sensoren (S 1 , S 2 ) festgestellt wird.
摘要:
Some systems and methods for detecting motion based on a video pattern can include creating a motion image from a sequence of raw images, masking the motion image with a lens pattern associated with a PIR sensor and an associated Fresnel lens, splitting each of a plurality of blocks of the lens pattern into first and second negative areas, identifying a positive area pixel value as a sum of all pixels in the motion image aligned with the first positive area in the plurality of blocks, identifying a negative area pixel value as a sum of all pixels in the motion image aligned with the second negative area in the plurality of blocks, identifying a motion image response value as a difference between the positive and negative area pixel values, and identifying a presence of motion when the motion image response value exceeds a predetermined value.
摘要:
[Object] To automatically generate information representing a context surrounding a user. [Solution] An information processing apparatus includes: a recognition processing unit configured to perform, on the basis of user environment information including at least any of location information representing a location where a user is present, image information relating to an environment surrounding a user, and audio information relating to the environment, an analysis process of at least any of the location information, the image information, and the audio information included in the user environment information, at a predetermined time interval, and to recognize a context surrounding the user, using the acquired result of analysis relating to the user environment; and a context candidate information generating unit configured to generate context candidate information representing a candidate of the context surrounding the user, the context candidate information including, at least, information representing the context surrounding the user and information representing the user's emotion in the context, using the result of context recognition performed by the recognition processing unit.
摘要:
A parking assistance device includes: an acquisition unit (141) that acquires a first distance between a vehicle (1) and a first obstacle measured by a distance measuring unit (16, 16a to 16d, 17, 17a to 17h) and a second distance between the vehicle and a second obstacle measured by the distance measuring unit; a calculation unit (144) that calculates an inter-objects distance between the first and second obstacles; and a generation unit (146) that generates a guidance route for the vehicle such that each of the first and second distances become equal to or longer than a second reference distance which is shorter than a first reference distance that is a reference for safe travelling of the vehicle, when the vehicle is caused to move between the first and second obstacles and within the inter-objects distance and in a case where a condition is satisfied.
摘要:
An object recognition apparatus includes an image capturing unit configured to capture a first image based on infrared or near-infrared light and a second image based on visible light, an object being included in the first and second images, respectively, a storage unit storing image data of articles, and a processing unit configured to determine a first portion of the first image in which the object is contained, extract a second portion of the second image corresponding to the first portion, and select one of the articles as a candidate for the object based on the second portion of the second image and the stored image data.
摘要:
Disclosed are a method and a device for recognising traffic signs with an environment detection sensor system for a vehicle, comprising at least one camera sensor and a radar sensor and/or LIDAR sensor. One the basis of the data from the at least one radar sensor and/or LIDAR sensor, at least one of the following pieces of information is obtained and used for traffic sign recognition: the presence of a traffic sign or - the size of a traffic sign, - position of a traffic sign, - distance and/or orientation of a traffic sign, - bridge-like structure, - position and/or type of preceding vehicle, - position of lane-delimiting structures.
摘要:
Methods, systems and articles of manufacture for recognizing and locating one or more objects in a scene are disclosed. An image and/or video of the scene are captured. Using audio recorded at the scene, an object search of the captured scene is narrowed down. For example, the direction of arrival (DOA) of a sound can be determined and used to limit the search area in a captured image/video. In another example, keypoint signatures may be selected based on types of sounds identified in the recorded audio. A keypoint signature corresponds to a particular object that the system is configured to recognize. Objects in the scene may then be recognized using a shift invariant feature transform (SIFT) analysis comparing keypoints identified in the captured scene to the selected keypoint signatures.