
Triangulación y luz estructurada

El patrón de código gris se compone de una secuencia de franjas que se iluminan de forma clara u oscura y se vuelven cada vez más finas. Mediante el seguimiento de la evolución de la intensidad con una cámara, se puede detectar un patrón y, por lo tanto, establecer un rango de profundidad. Por el contrario, las imágenes de fase son patrones de onda en forma de onda sinusoidal proyectados sobre un objeto. Por ejemplo, se puede utilizar un actuador de microespejo (Digital Micromirror Device) para crear patrones. La fase de la onda se desplaza de una imagen a otra. A partir del desarrollo de la fase, se puede obtener la información de profundidad con ayuda de una cámara.

Estéreo pasivo
En este procedimiento, dos cámaras enfocan el mismo objeto bajo un ángulo. Los diferentes ángulos de enfoque permiten determinar la distancia de un punto. La dificultad reside en la identificación del mismo punto con ambas cámaras. Por ejemplo, para una superficie de bajo contraste como una pared blanca, este método no es el óptimo.

Estéreo activo
La estructura se corresponde con la del estéreo pasivo. La única diferencia es que aquí hay un patrón (p. ej., puntos distribuidos aleatoriamente) sobre el objeto. Esto facilita la asignación de un punto a ambas cámaras.

Time of Flight (tiempo de vuelo)
Mediante este procedimiento se determina la distancia entre el objeto y el sensor a partir del tiempo de recorrido de la luz. En este caso, el sensor emite pulsos de luz que alcanzan un objeto. El objeto refleja estos pulsos de luz. La distancia se determina en función de la duración de la reflexión de los pulsos de luz. De este modo, se puede determinar información de profundidad, como estructuras o distancias de objetos.
Comparación de tecnologías 3D
Luz estructurada | Estéreo pasivo | Estéreo activo | Time of Flight (tiempo de vuelo) | |
---|---|---|---|---|
Resolución | ![]() |
![]() |
![]() |
![]() |
Exactitud | ![]() |
![]() |
![]() |
![]() |
Luz externa | ![]() |
![]() |
![]() |
![]() |
Velocidad de medición | ![]() |
![]() |
![]() |
![]() |
Objetos de bajo contraste | ![]() |
![]() |
![]() |
![]() |
Obstrucción/sombreado | ![]() |
![]() |
![]() |
![]() |
La tridimensionalidad del sensor 3D

Los sensores 3D proyectan varios patrones sobre el objeto que se va a medir y lo registran con una cámara. De este modo, el objeto se registra tridimensionalmente y se digitaliza en una nube de puntos 3D. Ni el objeto ni el sensor 3D se mueven. De esta manera, el registro puede realizarse de forma rápida y extremadamente precisa.
1) Cámara de alta resolución
2) Lightengine
3) X, Y = rango de medición
4) Z = rango de trabajo
La medición de objetos en 3D simplifica la producción automovilística

La iluminación: Light Engines para una iluminación ideal
La fuente de iluminación puede ser un láser o un LED. Los láseres generan luz con una alta coherencia temporal y espacial. El espectro presenta bandas estrechas. La luz generada por un láser puede transformarse en una forma determinada mediante la óptica. Otro tipo de iluminación es el uso de un LED. En comparación con un láser, este genera una luz de banda ancha y apenas tiene coherencia. Los LED son más fáciles de usar y generan más longitudes de onda en comparación con los diodos láser. Mediante la tecnología Digital Light Processing (DLP), se puede generar cualquier patrón. La combinación de LED y DLP ofrece la posibilidad de crear diferentes patrones de forma rápida y eficaz, lo que los hace óptimos para la tecnología 3D de la luz estructurada.

Acquisizione delle immagini: con la potenza della tecnologia Power per un’immagine perfetta
Utilizzando una telecamera ad alta risoluzione, l’oggetto viene acquisito in due dimensioni. Le telecamere odierne dispongono in genere di un chip a semiconduttore fotosensibile basato sulla tecnologia CMOS o CCD, sebbene la tecnologia CMOS venga utilizzata più spesso. Un chip è composto da molte singole celle (pixel). I chip moderni hanno diversi milioni di pixel, per cui è possibile rilevare l’oggetto in due dimensioni. Grazie alle migliori prestazioni della tecnologia CMOS, questa viene impiegata nei sensori 3D.
Nuvola di punti 3D: Dall’applicazione all’immagine finita
La sequenza di pattern della luce strutturata viene registrata dalla telecamera. Il pacchetto che contiene tutte le immagini è chiamato Image Stack. Dalle immagini dei singoli modelli è possibile determinare le informazioni sulla profondità di ciascun punto (pixel). Poiché la telecamera ha diversi milioni di pixel e ogni pixel riconosce le sfumature di grigio, vengono generati diversi megabyte di dati in breve tempo. La quantità di dati può essere elaborata su un potente PC industriale o internamente al sensore con un FPGA. Il vantaggio del calcolo interno è la velocità, mentre il calcolo sul PC consente una maggiore flessibilità. Il risultato del calcolo è una nuvola di punti 3D.

La integración: del sensor a la aplicación
La nube de puntos 3D se calcula a partir de las imágenes registradas. Esto se puede hacer en el sensor, pero también en un PC industrial. Los kits de desarrollo de software (SDK) del fabricante o las interfaces estandarizadas como GigE Vision se utilizan para facilitar la integración.

Uso de iluminación monocromática
El uso de una iluminación monocromática permite suprimir eficazmente las influencias perturbadoras de la luz externa mediante filtros ópticos. La iluminación también se puede optimizar para obtener la máxima eficiencia y luminosidad.