Triangulation und strukturiertes Licht
Das Gray-Code-Muster besteht aus einer Sequenz von Streifen, die hell oder dunkel beleuchtet und immer feiner werden. Durch Verfolgung des Intensitätsverlaufs mit einer Kamera kann ein Muster erkannt und somit ein Tiefenbereich festgelegt werden. Phasenbilder hingegen sind Wellenmuster in Form von Sinuswellen, die auf ein Objekt projiziert werden. Für die Erzeugung der Muster kann beispielsweise ein Mikrospiegelaktor (Digital Micromirror Device) verwendet werden. Die Phase der Welle wird von Bild zu Bild verschoben. Durch den Phasenverlauf kann mit Hilfe einer Kamera die Tiefeninformation gewonnen werden.
Passives Stereo h4>
Bei diesem Verfahren betrachten zwei Kameras dasselbe Objekt unter einem Winkel. Durch die verschiedenen Betrachtungswinkel kann der Abstand eines Punktes ermittelt werden. Hierbei ist die Schwierigkeit, denselben Punkt mit beiden Kameras zu identifizieren. Wird beispielsweise eine kontrastarme Fläche wie eine weiße Wand betrachtet, so ist diese Methode suboptimal.
Aktives Stereo h4>
Der Aufbau entspricht dem des passiven Stereos. Der einzige Unterschied ist, dass hier ein Muster (z. B. zufällig verteilte Punkte) auf das Objekt projiziert wird. Das erleichtert die Zuordnung eines Punkts beider Kameras.
Time of Flight h4>
In diesem Verfahren wird der Abstand zwischen Objekt und Sensor anhand der Lichtlaufzeit bestimmt. Hierbei sendet der Sensor Lichtimpulse aus, die auf ein Objekt treffen. Der Gegenstand reflektiert diese Lichtimpulse. Abhängig von der Dauer der Reflexion der Lichtimpulse wird der Abstand ermittelt. Damit können Tiefeninformationen wie Strukturen oder Entfernungen von Gegenständen ermittelt werden.
3D-Technologien im Vergleich
Strukturiertes Licht | Passives Stereo | Aktives Stereo | Time of Flight | |
---|---|---|---|---|
Auflösung | ||||
Genauigkeit | ||||
Fremdlicht | ||||
Messgeschwindigkeit | ||||
Kontrastarme Objekte | ||||
Obstruktion/Verschattung |
Auflösung
|
|||
---|---|---|---|
Strukturiertes Licht
|
Passives Stereo
|
Aktives Stereo
|
Time of Flight
|
Genauigkeit
|
|||
Strukturiertes Licht
|
Passives Stereo
|
Aktives Stereo
|
Time of Flight
|
Fremdlicht
|
|||
Strukturiertes Licht
|
Passives Stereo
|
Aktives Stereo
|
Time of Flight
|
Messgeschwindigkeit
|
|||
Strukturiertes Licht
|
Passives Stereo
|
Aktives Stereo
|
Time of Flight
|
Kontrastarme Objekte
|
|||
Strukturiertes Licht
|
Passives Stereo
|
Aktives Stereo
|
Time of Flight
|
Obstruktion/Verschattung
|
|||
Strukturiertes Licht
|
Passives Stereo
|
Aktives Stereo
|
Time of Flight
|
Die Dreidimensionalität des 3D-Sensors
Die 3D-Sensoren projizieren mehrere Muster auf das zu vermessende Objekt und nehmen diese durch eine Kamera wieder auf. Das Objekt wird dadurch dreidimensional aufgenommen und in eine 3D-Punktewolke digitalisiert. Dabei befindet sich weder das Objekt noch der 3D-Sensor in Bewegung. Die Erfassung kann somit schnell und äußerst präzise erfolgen.
1) Hochauflösende Kamera
2) Lightengine
3) X, Y = Messbereich
4) Z = Arbeitsbereich
3D-Objektvermessung vereinfacht Automobilproduktion
Die Beleuchtung: Light Engines für die ideale Ausleuchtung h3>
Die Beleuchtungsquelle kann ein Laser oder eine LED sein. Laser erzeugen Licht mit hoher zeitlicher und räumlicher Kohärenz. Das Spektrum ist schmalbandig. Das Licht, das durch einen Laser erzeugt wird, kann mittels Optik in eine bestimmt Form gebracht werden. Eine andere Art der Beleuchtung ist die Verwendung einer LED. Diese erzeugt im Vergleich zu einem Laser ein breitbandiges Licht und besitzt kaum Kohärenz. LEDs sind leichter in der Handhabung und generieren mehr Wellenlängen im Vergleich zu Laserdioden. Mittels der Digital Light Processing (DLP) Technik kann jedes Muster generiert werden. Die Kombination von LED und DLP bietet die Möglichkeit, schnell und effektiv verschiedene Muster zu erzeugen, wodurch diese optimal für die 3D-Technik des strukturierten Lichts geeignet sind.
Die Bildaufnahme: Mit CMOS-Power zum perfekten Bild h3>
Durch die Verwendung einer hochauflösenden Kamera wird das Objekt in zwei Dimensionen aufgenommen. Heutzutage besitzen Kameras typischerweise einen photosensitiven Halbleiterchip basierend auf CMOS- oder CCD-Technologie, wobei die CMOS-Technologie häufiger zum Einsatz kommt. Ein Chip besteht aus vielen einzelnen Zellen (Pixel). Moderne Chips haben mehrere Millionen von Pixeln, sodass eine zwei dimensionale Erfassung des Objekts möglich ist. Durch die bessere Performance der CMOS-Technologie wird diese bei den 3D-Sensoren eingesetzt.
Die 3D-Punktewolke: Von der Anwendung zum fertigen Bild
Die Mustersequenz des strukturierten Lichts wird von der Kamera aufgezeichnet. Das Paket, das alle Bilder beinhaltet, wird als Image Stack bezeichnet. Aus den Bildern der einzelnen Muster kann die Tiefeninformation jedes Punkts (Pixel) bestimmt werden. Da die Kamera mehrere Millionen Pixel besitzt und jedes Pixel Graustufen erkennt, werden in kurzer Zeit mehrere Megabyte an Datenmenge erzeugt. Die Datenmenge kann auf einem leistungsstarken Industrie-PC oder intern im Sensor mit einem FPGA verarbeitet werden. Der Vorteil der internen Berechnung ist die Geschwindigkeit, während die Berechnung auf dem PC eine größere Flexibilität erlaubt. Das Ergebnis der Berechnung ist eine 3D-Punktewolke.
Die Integration: Vom Sensor in die Anwendung h3>
Die 3D-Punktewolke wird aus den aufgenommenen Bilder berechnet. Dies kann im Sensor, aber auch auf einem Industrie-PC erfolgen. Zur einfachen Integration werden Software Development Kits (SDK) des Herstellers oder standardisierte Schnittstellen wie GigE Vision verwendet.
Verwendung einer monochromen Beleuchtung h3>
Die Verwendung einer monochromen Beleuchtung erlaubt es, durch optische Filter effektiv störende Einflüsse von Fremdlicht zu unterdrücken. Auch kann die Beleuchtung auf maximale Effizienz und Beleuchtungsstärke optimiert werden.