text.skipToContent text.skipToNavigation

Technologies de capteur 3D

La dé­tec­tion tri­di­men­sion­nelle des ob­jets joue un rôle cen­tral dans l’au­to­ma­ti­sa­tion, car l’étape de trai­te­ment sui­vante doit connaître l’em­pla­ce­ment, la taille et la forme. Le pro­ces­sus vers un nuage de points 3D s’ef­fec­tue en plu­sieurs étapes et peut être ré­so­lu à l’aide de dif­fé­rentes tech­niques de me­sure.
 

Tri­an­gu­la­tion et lu­mière struc­tu­rée

La tech­nique de tri­an­gu­la­tion est une mé­thode per­met­tant d’ob­te­nir des in­for­ma­tions de pro­fon­deur. La source lu­mi­neuse et la ca­mé­ra ont une dis­tance dé­fi­nie et sont ali­gnées sur un point com­mun. Il en ré­sulte un tri­angle ap­pe­lé angle de tri­an­gu­la­tion. Cet angle de tri­an­gu­la­tion per­met de cal­cu­ler l’in­for­ma­tion de pro­fon­deur. Plus l’angle est grand, plus les in­for­ma­tions de pro­fon­deur peuvent être cap­tu­rées. En rai­son de l’angle de tri­an­gu­la­tion, les ob­jets éclai­rés gé­nèrent une ombre por­tée (om­brage) ou l’objet masque l’arrière-​plan et n’est plus vi­sible pour la ca­mé­ra (obs­truc­tion). Des in­for­ma­tions de pro­fon­deur ne peuvent être af­fi­chées que pour les zones qui ne pré­sentent ni om­brage, ni obs­truc­tion. Un cap­teur 3D wen­glor fonc­tionne avec une lu­mière struc­tu­rée et une tri­an­gu­la­tion. Il se com­pose d’une source lu­mi­neuse et d’une ca­mé­ra. La ca­mé­ra et la source lu­mi­neuse sont orien­tées vers un point et forment un tri­angle ap­pe­lé tri­an­gu­la­tion. Cela per­met d’ob­te­nir des in­for­ma­tions de pro­fon­deur. La pro­jec­tion de dif­fé­rents mo­dèles sur l’objet per­met de créer un nuage de points 3D.
La lu­mière struc­tu­rée est une tech­nique d'éclai­rage dans la­quelle la lu­mière pro­duit un motif connu, comme une grille ou une barre. Le type de dé­for­ma­tion des mo­tifs per­met de dé­tec­ter les in­for­ma­tions de pro­fon­deur et de sur­face des ob­jets. La lu­mière struc­tu­rée est une mé­thode de me­sure avec des ré­so­lu­tions de haute pré­ci­sion in­fé­rieures à 10 μm. Cela si­gni­fie qu’il est pos­sible d’iden­ti­fier les fis­sures ca­pil­laires les plus fines dans les ob­jets ou les struc­tures les plus pe­tites qui ne sont pas re­con­nais­sables à l’œil nu. Les cap­teurs 3D uti­lisent sou­vent des mo­tifs tels que des images bi­naires avec leurs propres dé­si­gna­tions, comme des mo­tifs de code Gray ou des images de phase.
Le motif de code Gray se com­pose d’une sé­quence de bandes qui s’éclairent de façon claire ou sombre et de­viennent de plus en plus fines. En sui­vant l’évo­lu­tion de l’in­ten­si­té à l’aide d’une ca­mé­ra, un mo­dèle peut être dé­tec­té et une plage de pro­fon­deur peut ainsi être dé­fi­nie. Les images de phase, en re­vanche, sont des formes d’onde si­nu­soï­dales pro­je­tées sur un objet. Pour la gé­né­ra­tion des mo­tifs, il est pos­sible d’uti­li­ser, par exemple une ma­trice de micro-​miroirs (Di­gi­tal Mi­cro­mir­ror De­vice). La phase de l'onde est dé­pla­cée d’une image à l’autre. Le tracé de phase per­met d’ob­te­nir l’in­for­ma­tion de pro­fon­deur à l’aide d’une ca­mé­ra. 

Sté­réo pas­sive

Dans cette pro­cé­dure, deux ca­mé­ras cap­turent le même objet sous un angle. Les dif­fé­rents angles de vue per­mettent de dé­ter­mi­ner la dis­tance d’un point. La dif­fi­cul­té est d’iden­ti­fier le même point avec les deux ca­mé­ras. Par exemple, si une sur­face à faible contraste est consi­dé­rée comme un mur blanc, cette mé­thode n’est pas op­ti­male.

Sté­réo ac­tive

La struc­ture cor­res­pond à celle de la sté­réo pas­sive. La seule dif­fé­rence est qu’ici, un motif (par ex. des points ré­par­tis au ha­sard) est pro­je­té sur l’objet. Cela fa­ci­lite l’as­so­cia­tion d’un point aux deux ca­mé­ras.

Temps de vol

Dans cette pro­cé­dure, la dis­tance entre l’objet et le cap­teur est dé­ter­mi­née en fonc­tion du temps de pro­pa­ga­tion de la lu­mière. Le cap­teur émet alors des im­pul­sions lu­mi­neuses qui heurtent un objet. L’objet re­flète ces im­pul­sions lu­mi­neuses. La dis­tance est dé­ter­mi­née en fonc­tion de la durée de ré­flexion des im­pul­sions lu­mi­neuses. Cela per­met de dé­ter­mi­ner des in­for­ma­tions de pro­fon­deur telles que des struc­tures ou des dis­tances d’ob­jets.

Com­pa­rai­son des tech­no­lo­gies 3D

La tri­di­men­sion­na­li­té du cap­teur 3D

Les cap­teurs 3D pro­jettent plu­sieurs mo­tifs sur l’objet à me­su­rer et les cap­turent à nou­veau à l’aide d’une ca­mé­ra. L’objet est ainsi cap­tu­ré en trois di­men­sions et nu­mé­ri­sé dans un nuage de points 3D. Ni le cap­teur 3D ni l’objet ne sont dé­pla­cés pen­dant ce pro­ces­sus. La dé­tec­tion peut ainsi être ef­fec­tuée ra­pi­de­ment et de ma­nière ex­trê­me­ment pré­cise.

​​​​​1) Ca­mé­ra haute ré­so­lu­tion
2) Source lu­mi­neuse
3) X, Y = plage de me­sure
4) Z = plage de tra­vail

La me­sure d’ob­jets en 3D sim­pli­fie la pro­duc­tion au­to­mo­bile

Éclai­rage : Des sources lu­mi­neuses pour un éclai­rage idéal

La source lu­mi­neuse peut être un laser ou une LED. Les la­sers gé­nèrent de la lu­mière avec une grande co­hé­rence tem­po­relle et spa­tiale. Le spectre est à bande étroite. La lu­mière pro­duite par un laser peut être trans­for­mée en une forme dé­fi­nie à l’aide d’op­tiques. Un autre type d’éclai­rage est l’uti­li­sa­tion d’une LED. Par rap­port à un laser, celle-​ci gé­nère une lu­mière à large spectre et ne pos­sède pra­ti­que­ment pas de co­hé­rence. Les LED sont plus fa­ciles à ma­ni­pu­ler et gé­nèrent plus de lon­gueurs d’onde que les diodes laser. La tech­nique Di­gi­tal Light Pro­ces­sing (DLP) per­met de gé­né­rer chaque motif. La com­bi­nai­son de LED et de DLP offre la pos­si­bi­li­té de créer ra­pi­de­ment et ef­fi­ca­ce­ment dif­fé­rents mo­tifs, ce qui la rend par­fai­te­ment adap­tée à la tech­nique 3D de la lu­mière struc­tu­rée. 

Pho­to­gra­phie : La puis­sance de la tech­no­lo­gie CMOS pour une image par­faite

L’uti­li­sa­tion d’une ca­mé­ra haute ré­so­lu­tion per­met de cap­tu­rer l’objet en deux di­men­sions. Au­jourd’hui, les ca­mé­ras sont gé­né­ra­le­ment équi­pées d’une puce pho­to­sen­sible à semi-​conducteur basée sur la tech­no­lo­gie CMOS ou CCD, bien que la tech­no­lo­gie CMOS soit plus fré­quem­ment uti­li­sée. Une puce se com­pose de nom­breuses cel­lules in­di­vi­duelles (pixels). Les puces mo­dernes ont plu­sieurs mil­lions de pixels, ce qui per­met une dé­tec­tion en deux di­men­sions de l’objet. Grâce aux meilleures per­for­mances de la tech­no­lo­gie CMOS, celle-​ci est uti­li­sée pour les cap­teurs 3D.

Nuage de points 3D : De l’ap­pli­ca­tion à l’image fi­nale

La sé­quence de mo­tifs de la lu­mière struc­tu­rée est cap­tu­rée par la ca­mé­ra. La col­lec­tion qui contient toutes les images est ap­pe­lé pile d’images. L’in­for­ma­tion de pro­fon­deur de chaque point (pixel) peut être dé­ter­mi­née à par­tir des images de chaque motif. Comme la ca­mé­ra a plu­sieurs mil­lions de pixels et dé­tecte chaque pixel en ni­veaux de gris, plu­sieurs mé­ga­oc­tets de don­nées sont gé­né­rés en peu de temps. La quan­ti­té de don­nées peut être trai­tée sur un PC in­dus­triel per­for­mant ou en in­terne dans le cap­teur avec un FPGA. L’avan­tage du cal­cul in­terne est la vi­tesse, tan­dis que le cal­cul sur PC per­met une plus grande flexi­bi­li­té. Le ré­sul­tat du cal­cul est un nuage de points 3D.

In­té­gra­tion : Du cap­teur à l’ap­pli­ca­tion

Le nuage de points 3D est cal­cu­lé à par­tir des images ac­quises. Cela peut se faire dans le cap­teur, mais aussi sur un PC in­dus­triel. Des kits de dé­ve­lop­pe­ment lo­gi­ciel (SDK) du fa­bri­cant ou des in­ter­faces stan­dar­di­sées telles que GigE Vi­sion sont uti­li­sés pour fa­ci­li­ter l’in­té­gra­tion. 

Uti­li­sa­tion d’un éclai­rage mo­no­chrome

L’uti­li­sa­tion d’un éclai­rage mo­no­chrome per­met de sup­pri­mer ef­fi­ca­ce­ment les in­fluences per­tur­ba­trices de la lu­mière pa­ra­site grâce à des filtres op­tiques. L’éclai­rage peut éga­le­ment être op­ti­mi­sé pour une ef­fi­ca­ci­té et une in­ten­si­té d’éclai­rage maxi­males.

Comparaison des produits
Interlocuteur Benni Avez-vous des questions ?