text.skipToContent text.skipToNavigation

Tecnologías de un sensor 3D

El re­gis­tro tri­di­men­sio­nal de ob­je­tos de­sem­pe­ña un papel cen­tral en la au­to­ma­ti­za­ción, ya que la si­guien­te en­ti­dad de pro­ce­sa­mien­to debe co­no­cer la po­si­ción, el ta­ma­ño y la forma. El ca­mino hacia una nube de pun­tos 3D se rea­li­za en va­rios pasos y se puede re­sol­ver con di­fe­ren­tes téc­ni­cas de me­di­ción.
 

Trian­gu­la­ción y luz es­truc­tu­ra­da

La téc­ni­ca de trian­gu­la­ción es un mé­to­do para ob­te­ner in­for­ma­ción de pro­fun­di­dad. La fuen­te de ilu­mi­na­ción y la cá­ma­ra tie­nen una dis­tan­cia de­fi­ni­da y están orien­ta­das hacia un punto común. De este modo, se forma un trián­gu­lo junto con el lla­ma­do án­gu­lo de trian­gu­la­ción. Este án­gu­lo de trian­gu­la­ción per­mi­te cal­cu­lar la in­for­ma­ción de pro­fun­di­dad. Cuan­to mayor sea el án­gu­lo, mejor se podrá re­co­pi­lar la in­for­ma­ción de pro­fun­di­dad. De­bi­do al án­gu­lo de trian­gu­la­ción, los ob­je­tos ilu­mi­na­dos ge­ne­ran una pro­yec­ción de som­bra (som­brea­do) o el ob­je­to cubre el fondo y ya no es vi­si­ble para la cá­ma­ra (obs­truc­ción). Solo se puede emi­tir in­for­ma­ción de pro­fun­di­dad en áreas que no pre­sen­ten som­brea­do ni obs­truc­ción. Un sen­sor 3D de wen­glor fun­cio­na con luz es­truc­tu­ra­da y trian­gu­la­ción. Se com­po­ne de una fuen­te de ilu­mi­na­ción y una cá­ma­ra. La cá­ma­ra y la fuen­te de ilu­mi­na­ción están orien­ta­das hacia un punto y for­man un trián­gu­lo lla­ma­do trian­gu­la­ción. De este modo, se puede ob­te­ner in­for­ma­ción de pro­fun­di­dad. Me­dian­te la pro­yec­ción de di­fe­ren­tes pa­tro­nes sobre el ob­je­to, se puede crear una nube de pun­tos 3D.
La luz es­truc­tu­ra­da es una tec­no­lo­gía de ilu­mi­na­ción en la que la luz ge­ne­ra un pa­trón co­no­ci­do, ge­ne­ral­men­te en forma de re­ji­lla o de ba­rras. La forma en la que se de­for­man los pa­tro­nes per­mi­te de­tec­tar in­for­ma­ción acer­ca de la pro­fun­di­dad y su­per­fi­cie de los ob­je­tos. La luz es­truc­tu­ra­da es un mé­to­do de me­di­ción con re­so­lu­cio­nes muy pre­ci­sas de menos de 10 μm. Esto sig­ni­fi­ca que se pue­den iden­ti­fi­car las fi­su­ras más finas en ob­je­tos o es­truc­tu­ras muy pe­que­ñas, no de­tec­ta­bles por el ojo hu­mano. Los sen­so­res 3D a me­nu­do uti­li­zan pa­tro­nes como, por ejem­plo, imá­ge­nes bi­na­rias con nom­bres pro­pios, como pa­tro­nes de có­di­go gris o imá­ge­nes de fase.
El pa­trón de có­di­go gris se com­po­ne de una se­cuen­cia de fran­jas que se ilu­mi­nan de forma clara u os­cu­ra y se vuel­ven cada vez más finas. Me­dian­te el se­gui­mien­to de la evo­lu­ción de la in­ten­si­dad con una cá­ma­ra, se puede de­tec­tar un pa­trón y, por lo tanto, es­ta­ble­cer un rango de pro­fun­di­dad. Por el con­tra­rio, las imá­ge­nes de fase son pa­tro­nes de onda en forma de onda si­nu­soi­dal pro­yec­ta­dos sobre un ob­je­to. Por ejem­plo, se puede uti­li­zar un ac­tua­dor de mi­cro­es­pe­jo (Di­gi­tal Mi­cro­mi­rror De­vi­ce) para crear pa­tro­nes. La fase de la onda se des­pla­za de una ima­gen a otra. A par­tir del de­sa­rro­llo de la fase, se puede ob­te­ner la in­for­ma­ción de pro­fun­di­dad con ayuda de una cá­ma­ra. 

Es­té­reo pa­si­vo

En este pro­ce­di­mien­to, dos cá­ma­ras en­fo­can el mismo ob­je­to bajo un án­gu­lo. Los di­fe­ren­tes án­gu­los de en­fo­que per­mi­ten de­ter­mi­nar la dis­tan­cia de un punto. La di­fi­cul­tad re­si­de en la iden­ti­fi­ca­ción del mismo punto con ambas cá­ma­ras. Por ejem­plo, para una su­per­fi­cie de bajo con­tras­te como una pared blan­ca, este mé­to­do no es el óp­ti­mo.

Es­té­reo ac­ti­vo

La es­truc­tu­ra se co­rres­pon­de con la del es­té­reo pa­si­vo. La única di­fe­ren­cia es que aquí hay un pa­trón (p. ej., pun­tos dis­tri­bui­dos alea­to­ria­men­te) sobre el ob­je­to. Esto fa­ci­li­ta la asig­na­ción de un punto a ambas cá­ma­ras.

Time of Flight (tiem­po de vuelo)

Me­dian­te este pro­ce­di­mien­to se de­ter­mi­na la dis­tan­cia entre el ob­je­to y el sen­sor a par­tir del tiem­po de re­co­rri­do de la luz. En este caso, el sen­sor emite pul­sos de luz que al­can­zan un ob­je­to. El ob­je­to re­fle­ja estos pul­sos de luz. La dis­tan­cia se de­ter­mi­na en fun­ción de la du­ra­ción de la re­fle­xión de los pul­sos de luz. De este modo, se puede de­ter­mi­nar in­for­ma­ción de pro­fun­di­dad, como es­truc­tu­ras o dis­tan­cias de ob­je­tos.

Com­pa­ra­ción de tec­no­lo­gías 3D

La tri­di­men­sio­na­li­dad del sen­sor 3D

Los sen­so­res 3D pro­yec­tan va­rios pa­tro­nes sobre el ob­je­to que se va a medir y lo re­gis­tran con una cá­ma­ra. De este modo, el ob­je­to se re­gis­tra tri­di­men­sio­nal­men­te y se di­gi­ta­li­za en una nube de pun­tos 3D. Ni el ob­je­to ni el sen­sor 3D se mue­ven. De esta ma­ne­ra, el re­gis­tro puede rea­li­zar­se de forma rá­pi­da y ex­tre­ma­da­men­te pre­ci­sa.

​​​1) Cá­ma­ra de alta re­so­lu­ción
2) Ligh­ten­gi­ne
3) X, Y = rango de me­di­ción
4) Z = rango de tra­ba­jo

La me­di­ción de ob­je­tos en 3D sim­pli­fi­ca la pro­duc­ción au­to­mo­vi­lís­ti­ca

La ilu­mi­na­ción: Light En­gi­nes para una ilu­mi­na­ción ideal

La fuen­te de ilu­mi­na­ción puede ser un láser o un LED. Los lá­se­res ge­ne­ran luz con una alta co­he­ren­cia tem­po­ral y es­pa­cial. El es­pec­tro pre­sen­ta ban­das es­tre­chas. La luz ge­ne­ra­da por un láser puede trans­for­mar­se en una forma de­ter­mi­na­da me­dian­te la óp­ti­ca. Otro tipo de ilu­mi­na­ción es el uso de un LED. En com­pa­ra­ción con un láser, este ge­ne­ra una luz de banda ancha y ape­nas tiene co­he­ren­cia. Los LED son más fá­ci­les de usar y ge­ne­ran más lon­gi­tu­des de onda en com­pa­ra­ción con los dio­dos láser. Me­dian­te la tec­no­lo­gía Di­gi­tal Light Pro­ces­sing (DLP), se puede ge­ne­rar cual­quier pa­trón. La com­bi­na­ción de LED y DLP ofre­ce la po­si­bi­li­dad de crear di­fe­ren­tes pa­tro­nes de forma rá­pi­da y efi­caz, lo que los hace óp­ti­mos para la tec­no­lo­gía 3D de la luz es­truc­tu­ra­da. 

Toma de imá­ge­nes: con po­ten­cia CMOS para una ima­gen per­fec­ta

Al usar una cá­ma­ra de alta re­so­lu­ción, el ob­je­to se re­gis­tra en dos di­men­sio­nes. Hoy en día, las cá­ma­ras sue­len tener un chip se­mi­con­duc­tor fo­to­sen­si­ble ba­sa­do en tec­no­lo­gía CMOS o CCD y la tec­no­lo­gía CMOS se usa con más fre­cuen­cia. Un chip está com­pues­to por mu­chas cé­lu­las in­di­vi­dua­les (pí­xe­les). Los chips mo­der­nos tie­nen va­rios mi­llo­nes de pí­xe­les, lo que per­mi­te re­gis­trar dos di­men­sio­nes del ob­je­to. Como la tec­no­lo­gía CMOS tiene un mejor ren­di­mien­to, es la que se uti­li­za en los sen­so­res 3D.

La nube de pun­tos 3D: de la apli­ca­ción a la ima­gen final

La cá­ma­ra re­gis­tra la se­cuen­cia de pa­tro­nes de la luz es­truc­tu­ra­da. El pa­que­te que con­tie­ne todas las imá­ge­nes se de­no­mi­na grupo de imá­ge­nes (Image Stack). A par­tir de las imá­ge­nes de cada pa­trón, se puede de­ter­mi­nar la in­for­ma­ción de pro­fun­di­dad de cada punto (pí­xe­les). Dado que la cá­ma­ra tiene va­rios mi­llo­nes de pí­xe­les y que cada píxel de­tec­ta es­ca­las de gri­ses, se ge­ne­ran rá­pi­da­men­te va­rios me­gaby­tes de datos. Todos esos datos se pue­den pro­ce­sar en un po­ten­te PC in­dus­trial o en una FPGA en el in­te­rior del sen­sor. La ven­ta­ja del cálcu­lo in­terno es la ve­lo­ci­dad, mien­tras que el cálcu­lo en el PC per­mi­te una mayor fle­xi­bi­li­dad. El re­sul­ta­do del cálcu­lo es una nube de pun­tos 3D.

La in­te­gra­ción: del sen­sor a la apli­ca­ción

La nube de pun­tos 3D se cal­cu­la a par­tir de las imá­ge­nes re­gis­tra­das. Esto se puede hacer en el sen­sor, pero tam­bién en un PC in­dus­trial. Los kits de de­sa­rro­llo de soft­wa­re (SDK) del fa­bri­can­te o las in­ter­fa­ces es­tan­da­ri­za­das como GigE Vi­sion se uti­li­zan para fa­ci­li­tar la in­te­gra­ción. 

Uso de ilu­mi­na­ción mo­no­cro­má­ti­ca

El uso de una ilu­mi­na­ción mo­no­cro­má­ti­ca per­mi­te su­pri­mir efi­caz­men­te las in­fluen­cias per­tur­ba­do­ras de la luz ex­ter­na me­dian­te fil­tros óp­ti­cos. La ilu­mi­na­ción tam­bién se puede op­ti­mi­zar para ob­te­ner la má­xi­ma efi­cien­cia y lu­mi­no­si­dad.

Comparación de productos
Persona de contacto: Benni ¿Tiene alguna pregunta?