Abstract:
Beschrieben wird ein Sensorsystem (100) sowie ein Verfahren zum dreidimensionalen optischen Erfassen einer Szene (190). Das Sensorsystem (100) weist auf (a) einen Sensor (110) zum Messen von Distanzen basierend auf einer Lichtlaufzeit; (b) eine Steuereinheit (140) zum Steuern des Betriebs des Sensors (110) derart, dass bei einer ersten Erfassung der Szene (190) pro Pixel (322a) des Sensors (110) eine erste Anzahl an Photonen akkumuliert wird und bei einer zweiten Erfassung der Szene (190) pro Pixel (322b) des Sensors (110) eine zweite Anzahl an Photonen akkumuliert wird, wobei die zweite Anzahl größer ist als die erste Anzahl; und (c) eine dem Sensor (110) nachgeschaltete Datenverarbeitungseinrichtung (150), welche konfiguriert ist, die Szene (190) auszuwerten basierend auf einem ersten Ergebnis der ersten Erfassung der Szene (190) und/oder einem zweiten Ergebnis der zweiten Erfassung der Szene (190). Ferner werden verschiedene Verwendungen eines solchen Sensorsystems (100) beschrieben.
Abstract:
Es wird beschrieben ein Sensorsystem (100) und ein Verfahren zum dreidimensionalen Erfassen einer Szene (190). Das Sensorsystem (100) weist auf (a) eine Beleuchtungseinrichtung (130) zum Beleuchten der Szene (190) mit Beleuchtungslicht (131); (b) eine Messeinrichtung (110) zum Empfangen von Messlicht (196), welches zumindest teilweise von zumindest einem in der Szene enthaltenen Objekt (195) zurückgestreutes Beleuchtungslicht (131) ist, und zum Messen von Distanzen zwischen dem Sensorsystem (100) und dem zumindest einen Objekt (195) basierend auf einer Lichtlaufzeit des Beleuchtungslichts (131) und des Messlichts (196); und (c) eine der Messeinrichtung (110) nachgeschaltete Datenverarbeitungseinrichtung (150) zum Ermitteln der dreidimensionalen Charakteristik der Szene (190) basierend auf den gemessenen Distanzen. Die Beleuchtungseinrichtung (130) ist derart konfiguriert, dass eine Beleuchtungsintensität des Beleuchtungslichts (131) von dem Raumwinkel des Strahlengangs des Beleuchtungslichts (131) abhängt, so dass ein distanzbasierter Intensitätsverlust des Beleuchtungslichts (131) und des Messlichts (196) zumindest teilweise kompensiert wird. Ferner werden verschiedene Verwendungen eines solchen Sensorsystems (100) beschrieben.
Abstract:
A laser radar projection system is provided. The system includes a laser projector that projects a light beam. A beam splitter is arranged to receive the light beam from the projector and divides the light beam into a signal light beam and a reference light beam. A steering system changes the direction of the signal light beam and scans the light beam over at least a portion of the surface. An optical signal detector is arranged to receive a feedback light beam and the reference light beam. The optical signal detector generates a feedback signal in response to the feedback light beam and a reference signal in response to the reference light beam. One or more processors determine the distance to one or more points on the at least a portion of the surface based at least in part on the feedback signal and the reference signal.
Abstract:
Makroskopische Lidar-Vorrichtung (100) aufweisend: -einen Stator (1); und -einen Rotor (2); wobei -auf dem Rotor (2) ein Laser-Element (20) und eine Sendeinrichtung angeordnet sind;wobei -in bestimmungsgemäßer Anbringlage der Lidar-Vorrichtung (100) an einem Fahrzeug während jeder Halbdrehung des Rotors (2)ein Strahl des Laser-Elements (20) im Wesentlichen dauerhaft in ein nach vorne gerichtetes Sichtfeld (FOV) emittierbarist.
Abstract:
An electro-optical device (20) includes a laser (28), which is configured to emit toward a scene (38) pulses (36) of optical radiation. An array (34) of detectors (79) are configured to receive the optical radiation that is reflected from points in the scene and to output signals indicative of respective times of arrival of the received radiation. A controller (26) is coupled to drive the laser to emit a sequence of pulses of the optical radiation toward each of a plurality of points in the scene and to find respective times of flight for the points responsively to the output signals, while controlling a power of the pulses emitted by the laser by counting a number of the detectors outputting the signals in response to each pulse, and reducing the power of a subsequent pulse in the sequence when the number is greater than a predefined threshold.
Abstract:
A method for determining a distance to a target by a geodetic instrument is disclosed. The method comprises emitting an optical pulse towards a target at an emission time, applying a bias adjustment to a photodiode that is arranged to receive a return optical pulse reflected at the target, obtaining a reference signal that is indicative of a transient behavior of the photodiode for the bias adjustment, obtaining a difference signal by subtracting, from a signal output from the photodiode, a signal that resembles, or is equal to, the transient behavior of the photodiode in response to the bias adjustment based on the reference signal, extracting a reception time that corresponds to reception of the return optical pulse at the photodiode based at least in part on the difference signal, and determining the distance to the target based on the emission time and the reception time.
Abstract:
This application relates to capturing an image of a target object using information from a time-of-flight sensor. In one aspect, a method may include a time-of-flight (TOF) system configured to emit light and sense a reflection of the emitted light and may determine a return energy based on the reflection of the emitted light. The method may measure a time between when the light is emitted and when the reflection is sensed and may determine a distance between the target object and the TOF system based on that time. The method may also identify a reflectance of the target object based on the return energy and may determine an exposure level based on a distance between the target object and a reflectance of the target object.
Abstract:
In illustrative implementations, a set of separate modulation signals simultaneously modulates a plurality of pixels in a superpixel by a set of separate modulation signals, such that each pixel in the superpixel is modulated by a modulation signal that causes sensitivity of the pixel to vary over time. Each superpixel comprises multiple pixels. In some implementations, the sensitivity of a pixel to incident light is controlled by storage modulation or by light modulation. In some implementations, this invention is used for 3D scanning, i.e., for detection of the 3D position of points in a scene.
Abstract:
An optical circuit can include a bidirectional amplifier connected so as to amplify source light prior to emission through an output device such as a telescope as well as amplification of reflected light received by the telescope. Such an optical circuit can be used in laser doppler velocimeter applications as well as other applications. The optical circuit can also include passive splitters or active switches to provide for advantageous multiplexing.