text.skipToContent text.skipToNavigation

Tecnologie di un sensore 3D

Il ri­le­va­men­to tri­di­men­sio­na­le degli og­get­ti svol­ge un ruolo cen­tra­le nell’au­to­ma­zio­ne, poiché l’istan­za di ela­bo­ra­zio­ne suc­ces­si­va deve co­no­scer­ne la po­si­zio­ne, le di­men­sio­ni e la forma. Il per­cor­so per ot­te­ne­re una nu­vo­la di punti 3D si ar­ti­co­la in più fasi e può es­se­re ri­sol­to con di­ver­se tec­ni­che di mi­su­ra­zio­ne.
 

Trian­go­la­zio­ne e luce strut­tu­ra­ta

La tec­ni­ca della trian­go­la­zio­ne è un me­to­do per ot­te­ne­re in­for­ma­zio­ni sulla profondità. La sor­gen­te di il­lu­mi­na­zio­ne e la te­le­ca­me­ra hanno una di­stan­za de­fi­ni­ta e sono al­li­nea­te su un punto co­mu­ne. Que­sto forma un trian­go­lo con il co­sid­det­to an­go­lo di trian­go­la­zio­ne. Que­sto an­go­lo di trian­go­la­zio­ne con­sen­te di cal­co­la­re le in­for­ma­zio­ni sulla profondità. Mag­gio­re è l’an­go­lo, mi­glio­re sarà la rac­col­ta delle in­for­ma­zio­ni sulla profondità. Con l’an­go­lo di trian­go­la­zio­ne, gli og­get­ti il­lu­mi­na­ti crea­no un’ombra (om­breg­gia­men­to) op­pu­re l’og­get­to oscu­ra lo sfon­do e non è più vi­si­bi­le alla te­le­ca­me­ra (ostru­zio­ne). Solo per le aree che non pre­sen­ta­no né om­breg­gia­tu­re né ostru­zio­ni è pos­si­bi­le emet­te­re in­for­ma­zio­ni sulla profondità. Un sen­so­re 3D di wen­glor fun­zio­na con luce strut­tu­ra­ta e trian­go­la­zio­ne. È com­po­sto da una sor­gen­te di il­lu­mi­na­zio­ne e da una te­le­ca­me­ra. La te­le­ca­me­ra e la sor­gen­te di il­lu­mi­na­zio­ne sono al­li­nea­te su un punto e for­ma­no un trian­go­lo, la co­sid­det­ta trian­go­la­zio­ne. Ciò con­sen­te di ot­te­ne­re in­for­ma­zio­ni sulla profondità. Pro­iet­tan­do di­ver­si mo­del­li sull’og­get­to, è pos­si­bi­le crea­re una nu­vo­la di punti 3D.
La luce strut­tu­ra­ta è una tec­ni­ca di il­lu­mi­na­zio­ne in cui la luce crea uno sche­ma fa­mi­lia­re, spes­so gri­glie o barre. Il modo in cui i mo­del­li ven­go­no de­for­ma­ti con­sen­te di ri­co­no­sce­re le in­for­ma­zio­ni sulla profondità e sulla su­per­fi­cie degli og­get­ti. La luce strut­tu­ra­ta è un me­to­do di mi­su­ra­zio­ne con ri­so­lu­zio­ni estre­ma­men­te pre­ci­se, in­fe­rio­ri a 10 μm. Ciò si­gni­fi­ca che è pos­si­bi­le iden­ti­fi­ca­re le più sot­ti­li crepe pre­sen­ti negli og­get­ti o le più pic­co­le strut­tu­re in­vi­si­bi­li all’oc­chio umano. I sen­so­ri 3D uti­liz­za­no spes­so mo­del­li come le im­ma­gi­ni bi­na­rie con le pro­prie de­no­mi­na­zio­ni, come i mo­del­li di co­di­ce Gray o anche le im­ma­gi­ni di fase.
Il mo­del­lo di co­di­ce Gray con­si­ste in una se­quen­za di stri­sce il­lu­mi­na­te in modo chia­ro o scuro che di­ven­ta­no sem­pre più sot­ti­li. Trac­cian­do l’an­da­men­to dell’intensità con una te­le­ca­me­ra, è pos­si­bi­le ri­le­va­re un mo­del­lo e quin­di de­fi­ni­re un in­ter­val­lo di profondità. Le im­ma­gi­ni di fase, in­ve­ce, sono mo­del­li d’onda sotto forma di onde si­nu­soi­da­li pro­iet­ta­te su un og­get­to. Per la crea­zio­ne dei mo­del­li, ad esem­pio, è pos­si­bi­le uti­liz­za­re un di­spo­si­ti­vo di­gi­ta­le a mi­cro­spec­chi (Di­gi­tal Mi­cro­mir­ror De­vi­ce). La fase dell’onda viene spo­sta­ta da im­ma­gi­ne a im­ma­gi­ne. Le in­for­ma­zio­ni sulla profondità pos­so­no es­se­re ot­te­nu­te dalla curva di fase con l’au­si­lio di una te­le­ca­me­ra. 

Ste­reo pas­si­vo

Con que­sto me­to­do, due te­le­ca­me­re ri­pren­do­no lo stes­so og­get­to con un’unica an­go­la­zio­ne. Gra­zie ai di­ver­si an­go­li di os­ser­va­zio­ne, è pos­si­bi­le de­ter­mi­na­re la di­stan­za di un punto. La difficoltà con­si­ste nell’iden­ti­fi­ca­re lo stes­so punto con en­tram­be le te­le­ca­me­re. Ad esem­pio, se si os­ser­va una su­per­fi­cie a basso con­tra­sto, come una pa­re­te bian­ca, que­sto me­to­do non è ot­ti­ma­le.

Ste­reo at­ti­vo

La strut­tu­ra cor­ri­spon­de a quel­la dello ste­reo pas­si­vo. L’unica dif­fe­ren­za è che in que­sto caso un mo­del­lo (ad es. punti di­stri­bui­ti in modo ca­sua­le) viene pro­iet­ta­to sull’og­get­to. Ciò fa­ci­li­ta l’as­se­gna­zio­ne di un punto di en­tram­be le te­le­ca­me­re.

Time of Flight

In que­sto me­to­do, la di­stan­za tra l’og­get­to e il sen­so­re viene de­ter­mi­na­ta in base al tempo di pro­pa­ga­zio­ne della luce. Il sen­so­re emet­te im­pul­si lu­mi­no­si che col­pi­sco­no un og­get­to. L’og­get­to ri­flet­te que­sti im­pul­si lu­mi­no­si. La di­stan­za viene de­ter­mi­na­ta in base alla du­ra­ta della ri­fles­sio­ne degli im­pul­si lu­mi­no­si. In que­sto modo è pos­si­bi­le de­ter­mi­na­re le in­for­ma­zio­ni sulla profondità, come le strut­tu­re o le di­stan­ze degli og­get­ti.

Tec­no­lo­gie 3D a con­fron­to

La tridimensionalità del sen­so­re 3D

I sen­so­ri 3D pro­iet­ta­no di­ver­si mo­del­li sull’og­get­to da mi­su­ra­re e li re­gi­stra­no nuo­va­men­te con una te­le­ca­me­ra. L’og­get­to viene quin­di ac­qui­si­to tri­di­men­sio­nal­men­te e di­gi­ta­liz­za­to in una nu­vo­la di punti 3D. Né l’og­get­to né il sen­so­re 3D sono in mo­vi­men­to. In que­sto modo il ri­le­va­men­to può es­se­re ese­gui­to in modo ra­pi­do ed estre­ma­men­te pre­ci­so.

1) te­le­ca­me­ra ad alta ri­so­lu­zio­ne
2) Light En­gi­ne
3) X, Y = campo di mi­su­ra­zio­ne
4) Z = campo di la­vo­ro

La mi­su­ra­zio­ne di og­get­ti in 3D sem­pli­fi­ca la pro­du­zio­ne au­to­mo­bi­li­sti­ca

Il­lu­mi­na­zio­ne: Light En­gi­ne per un’il­lu­mi­na­zio­ne idea­le

La sor­gen­te di il­lu­mi­na­zio­ne può es­se­re un laser o un LED. I laser ge­ne­ra­no luce con un’ele­va­ta coe­ren­za tem­po­ra­le e spa­zia­le. Lo spet­tro è a banda stret­ta. La luce ge­ne­ra­ta da un laser può es­se­re tra­sfor­ma­ta in una forma spe­ci­fi­ca per mezzo dell’ot­ti­ca. Un altro tipo di il­lu­mi­na­zio­ne è l’uso di un LED. Ri­spet­to a un laser, que­sto ge­ne­ra una luce a banda larga e pre­sen­ta una scar­sa coe­ren­za. I LED sono più fa­ci­li da ge­sti­re e ge­ne­ra­no più lun­ghez­ze d’onda ri­spet­to ai diodi laser. Gra­zie alla tec­no­lo­gia Di­gi­tal Light Pro­ces­sing (DLP) è pos­si­bi­le ge­ne­ra­re qual­sia­si mo­del­lo. La com­bi­na­zio­ne di LED e DLP offre la possibilità di ge­ne­ra­re di­ver­si mo­del­li in modo ra­pi­do ed ef­fi­ca­ce, ren­den­do­li idea­li per la tec­ni­ca 3D della luce strut­tu­ra­ta. 

Ac­qui­si­zio­ne delle im­ma­gi­ni: con la po­ten­za della tec­no­lo­gia Power per un’im­ma­gi­ne per­fet­ta

Uti­liz­zan­do una te­le­ca­me­ra ad alta ri­so­lu­zio­ne, l’og­get­to viene ac­qui­si­to in due di­men­sio­ni. Le te­le­ca­me­re odier­ne di­spon­go­no in ge­ne­re di un chip a se­mi­con­dut­to­re fo­to­sen­si­bi­le ba­sa­to sulla tec­no­lo­gia CMOS o CCD, seb­be­ne la tec­no­lo­gia CMOS venga uti­liz­za­ta più spes­so. Un chip è com­po­sto da molte sin­go­le celle (pixel). I chip mo­der­ni hanno di­ver­si mi­lio­ni di pixel, per cui è pos­si­bi­le ri­le­va­re l’og­get­to in due di­men­sio­ni. Gra­zie alle mi­glio­ri pre­sta­zio­ni della tec­no­lo­gia CMOS, que­sta viene im­pie­ga­ta nei sen­so­ri 3D.

Nu­vo­la di punti 3D: Dall’ap­pli­ca­zio­ne all’im­ma­gi­ne fi­ni­ta

La se­quen­za di pat­tern della luce strut­tu­ra­ta viene re­gi­stra­ta dalla te­le­ca­me­ra. Il pac­chet­to che con­tie­ne tutte le im­ma­gi­ni è chia­ma­to Image Stack. Dalle im­ma­gi­ni dei sin­go­li mo­del­li è pos­si­bi­le de­ter­mi­na­re le in­for­ma­zio­ni sulla profondità di cia­scun punto (pixel). Poiché la te­le­ca­me­ra ha di­ver­si mi­lio­ni di pixel e ogni pixel ri­co­no­sce le sfu­ma­tu­re di gri­gio, ven­go­no ge­ne­ra­ti di­ver­si me­ga­by­te di dati in breve tempo. La quantità di dati può es­se­re ela­bo­ra­ta su un po­ten­te PC in­du­stria­le o in­ter­na­men­te al sen­so­re con un FPGA. Il van­tag­gio del cal­co­lo in­ter­no è la velocità, men­tre il cal­co­lo sul PC con­sen­te una mag­gio­re flessibilità. Il ri­sul­ta­to del cal­co­lo è una nu­vo­la di punti 3D.

In­te­gra­zio­ne: dal sen­so­re all’ap­pli­ca­zio­ne

La nu­vo­la di punti 3D viene cal­co­la­ta dalle im­ma­gi­ni ac­qui­si­te. Que­sto può av­ve­ni­re nel sen­so­re, ma anche su un PC in­du­stria­le. Per fa­ci­li­ta­re l’in­te­gra­zio­ne, ven­go­no uti­liz­za­ti i Soft­ware De­ve­lo­p­ment Kit (SDK) del pro­dut­to­re o le in­ter­fac­ce stan­dar­diz­za­te come GigE Vi­sion. 

Uti­liz­zo di un’il­lu­mi­na­zio­ne mo­no­cro­ma­ti­ca

L’uso di un’il­lu­mi­na­zio­ne mo­no­cro­ma­ti­ca con­sen­te di uti­liz­za­re fil­tri ot­ti­ci per sop­pri­me­re ef­fi­ca­ce­men­te le in­fluen­ze di di­stur­bo pro­ve­nien­ti dalla luce estra­nea. Anche l’il­lu­mi­na­zio­ne può es­se­re ot­ti­miz­za­ta per la mas­si­ma ef­fi­cien­za e intensità lu­mi­no­sa.

Confronto dei prodotti
Referente Avete delle domande?