text.skipToContent text.skipToNavigation

Tecnologías de un sensor 3D

El registro tridimensional de objetos desempeña un papel central en la automatización, ya que la siguiente entidad de procesamiento debe conocer la posición, el tamaño y la forma. El camino hacia una nube de puntos 3D se realiza en varios pasos y se puede resolver con diferentes técnicas de medición.
 

Triangulación y luz estructurada

La técnica de triangulación es un método para obtener información de profundidad. La fuente de iluminación y la cámara tienen una distancia definida y están orientadas hacia un punto común. De este modo, se forma un triángulo junto con el llamado ángulo de triangulación. Este ángulo de triangulación permite calcular la información de profundidad. Cuanto mayor sea el ángulo, mejor se podrá recopilar la información de profundidad. Debido al ángulo de triangulación, los objetos iluminados generan una proyección de sombra (sombreado) o el objeto cubre el fondo y ya no es visible para la cámara (obstrucción). Solo se puede emitir información de profundidad en áreas que no presenten sombreado ni obstrucción. Un sensor 3D de wenglor funciona con luz estructurada y triangulación. Se compone de una fuente de iluminación y una cámara. La cámara y la fuente de iluminación están orientadas hacia un punto y forman un triángulo llamado triangulación. De este modo, se puede obtener información de profundidad. Mediante la proyección de diferentes patrones sobre el objeto, se puede crear una nube de puntos 3D.
La luz estructurada es una tecnología de iluminación en la que la luz genera un patrón conocido, generalmente en forma de rejilla o de barras. La forma en la que se deforman los patrones permite detectar información acerca de la profundidad y superficie de los objetos. La luz estructurada es un método de medición con resoluciones muy precisas de menos de 10 μm. Esto significa que se pueden identificar las fisuras más finas en objetos o estructuras muy pequeñas, no detectables por el ojo humano. Los sensores 3D a menudo utilizan patrones como, por ejemplo, imágenes binarias con nombres propios, como patrones de código gris o imágenes de fase.
El patrón de código gris se compone de una secuencia de franjas que se iluminan de forma clara u oscura y se vuelven cada vez más finas. Mediante el seguimiento de la evolución de la intensidad con una cámara, se puede detectar un patrón y, por lo tanto, establecer un rango de profundidad. Por el contrario, las imágenes de fase son patrones de onda en forma de onda sinusoidal proyectados sobre un objeto. Por ejemplo, se puede utilizar un actuador de microespejo (Digital Micromirror Device) para crear patrones. La fase de la onda se desplaza de una imagen a otra. A partir del desarrollo de la fase, se puede obtener la información de profundidad con ayuda de una cámara. 

Estéreo pasivo

En este procedimiento, dos cámaras enfocan el mismo objeto bajo un ángulo. Los diferentes ángulos de enfoque permiten determinar la distancia de un punto. La dificultad reside en la identificación del mismo punto con ambas cámaras. Por ejemplo, para una superficie de bajo contraste como una pared blanca, este método no es el óptimo.

Estéreo activo

La estructura se corresponde con la del estéreo pasivo. La única diferencia es que aquí hay un patrón (p. ej., puntos distribuidos aleatoriamente) sobre el objeto. Esto facilita la asignación de un punto a ambas cámaras.

Time of Flight (tiempo de vuelo)

Mediante este procedimiento se determina la distancia entre el objeto y el sensor a partir del tiempo de recorrido de la luz. En este caso, el sensor emite pulsos de luz que alcanzan un objeto. El objeto refleja estos pulsos de luz. La distancia se determina en función de la duración de la reflexión de los pulsos de luz. De este modo, se puede determinar información de profundidad, como estructuras o distancias de objetos.

Comparación de tecnologías 3D

La tridimensionalidad del sensor 3D

Los sensores 3D proyectan varios patrones sobre el objeto que se va a medir y lo registran con una cámara. De este modo, el objeto se registra tridimensionalmente y se digitaliza en una nube de puntos 3D. Ni el objeto ni el sensor 3D se mueven. De esta manera, el registro puede realizarse de forma rápida y extremadamente precisa.

​​​1) Cámara de alta resolución
2) Lightengine
3) X, Y = rango de medición
4) Z = rango de trabajo

La medición de objetos en 3D simplifica la producción automovilística

La iluminación: Light Engines para una iluminación ideal

La fuente de iluminación puede ser un láser o un LED. Los láseres generan luz con una alta coherencia temporal y espacial. El espectro presenta bandas estrechas. La luz generada por un láser puede transformarse en una forma determinada mediante la óptica. Otro tipo de iluminación es el uso de un LED. En comparación con un láser, este genera una luz de banda ancha y apenas tiene coherencia. Los LED son más fáciles de usar y generan más longitudes de onda en comparación con los diodos láser. Mediante la tecnología Digital Light Processing (DLP), se puede generar cualquier patrón. La combinación de LED y DLP ofrece la posibilidad de crear diferentes patrones de forma rápida y eficaz, lo que los hace óptimos para la tecnología 3D de la luz estructurada. 

Acquisizione delle immagini: con la potenza della tecnologia Power per un’immagine perfetta

Utilizzando una telecamera ad alta risoluzione, l’oggetto viene acquisito in due dimensioni. Le telecamere odierne dispongono in genere di un chip a semiconduttore fotosensibile basato sulla tecnologia CMOS o CCD, sebbene la tecnologia CMOS venga utilizzata più spesso. Un chip è composto da molte singole celle (pixel). I chip moderni hanno diversi milioni di pixel, per cui è possibile rilevare l’oggetto in due dimensioni. Grazie alle migliori prestazioni della tecnologia CMOS, questa viene impiegata nei sensori 3D.

Nuvola di punti 3D: Dall’applicazione all’immagine finita

La sequenza di pattern della luce strutturata viene registrata dalla telecamera. Il pacchetto che contiene tutte le immagini è chiamato Image Stack. Dalle immagini dei singoli modelli è possibile determinare le informazioni sulla profondità di ciascun punto (pixel). Poiché la telecamera ha diversi milioni di pixel e ogni pixel riconosce le sfumature di grigio, vengono generati diversi megabyte di dati in breve tempo. La quantità di dati può essere elaborata su un potente PC industriale o internamente al sensore con un FPGA. Il vantaggio del calcolo interno è la velocità, mentre il calcolo sul PC consente una maggiore flessibilità. Il risultato del calcolo è una nuvola di punti 3D.

La integración: del sensor a la aplicación

La nube de puntos 3D se calcula a partir de las imágenes registradas. Esto se puede hacer en el sensor, pero también en un PC industrial. Los kits de desarrollo de software (SDK) del fabricante o las interfaces estandarizadas como GigE Vision se utilizan para facilitar la integración. 

Uso de iluminación monocromática

El uso de una iluminación monocromática permite suprimir eficazmente las influencias perturbadoras de la luz externa mediante filtros ópticos. La iluminación también se puede optimizar para obtener la máxima eficiencia y luminosidad.

显示比较产品
Persona de contacto: Benni ¿Tiene alguna pregunta?