text.skipToContent text.skipToNavigation

Recogida y colocación con cámaras 2D

La re­co­gi­da y co­lo­ca­ción ro­bó­ti­ca se uti­li­za a me­nu­do en pro­ce­sos de fa­bri­ca­ción, mon­ta­je y en­va­sa­do en los que es ne­ce­sa­rio de­tec­tar con pre­ci­sión los ob­je­tos para su pos­te­rior pro­ce­sa­mien­to, re­co­ger­los y, a con­ti­nua­ción, de­po­si­tar­los en otra po­si­ción. La lo­ca­li­za­ción de ob­je­tos se rea­li­za me­dian­te cá­ma­ras 2D, que en­vían los datos de po­si­ción di­rec­ta­men­te al robot.

Re­co­gi­da y co­lo­ca­ción con dis­po­si­ti­vos de vi­sión ar­ti­fi­cial: las ven­ta­jas

Po­si­bi­li­da­des de mon­ta­je de la cá­ma­ra fle­xi­bles

¡No hay dos apli­ca­cio­nes igua­les! En fun­ción del caso de apli­ca­ción, el hard­wa­re de vi­sión ar­ti­fi­cial se puede mon­tar es­tá­ti­ca­men­te sobre el área de re­co­gi­da o di­rec­ta­men­te en el brazo ro­bó­ti­co. La co­lo­ca­ción es­tá­ti­ca de las cá­ma­ras es es­pe­cial­men­te ade­cua­da para apli­ca­cio­nes en las que el es­pa­cio es un fac­tor crí­ti­co o para pe­que­ños bra­zos ro­bó­ti­cos con un es­pa­cio de mon­ta­je li­mi­ta­do, mien­tras que la co­lo­ca­ción en el brazo ro­bó­ti­co au­men­ta la fle­xi­bi­li­dad de la apli­ca­ción.

Cá­ma­ra es­tá­ti­ca

Smart Camera B60 en el brazo robótico

Cá­ma­ra en el brazo ro­bó­ti­co

Co­mu­ni­ca­ción di­rec­ta entre la cá­ma­ra y el robot

La cá­ma­ra 2D se co­mu­ni­ca di­rec­ta­men­te con los ro­bots de los fa­bri­can­tes UR, KUKA y ABB a tra­vés de la in­ter­faz Ro­bo­tic Vi­sion; no es ne­ce­sa­rio de­sa­rro­llar una in­ter­faz pro­pia ni in­ter­co­nec­tar hard­wa­re in­de­pen­dien­te. Para cada tipo de robot se pue­den des­car­gar pro­gra­mas de ejem­plo o un URCap para la em­pre­sa UR. Esto per­mi­te una con­fi­gu­ra­ción muy sen­ci­lla y rá­pi­da de la apli­ca­ción Robot Vi­sion, in­de­pen­dien­te­men­te de si se uti­li­za una Smart Ca­me­ra B60 o un con­tro­la­dor de vi­sión ar­ti­fi­cial con cá­ma­ra de vi­sión ar­ti­fi­cial. La co­mu­ni­ca­ción TCP/IP do­cu­men­ta­da per­mi­te la co­ne­xión con otros fa­bri­can­tes.
 

In­te­gra­ción flui­da en el eco­sis­te­ma uni­Vi­sion

La caja de he­rra­mien­tas de wen­glor uni­Vi­sion 3 ofre­ce di­fe­ren­tes mó­du­los para la de­tec­ción de ob­je­tos, por ejem­plo, los mó­du­los de lo­ca­li­za­ción y com­pa­ra­ción de pa­tro­nes. Ambos mó­du­los per­mi­ten pro­gra­mar di­fe­ren­tes tipos de ob­je­tos, de modo que en ambos mó­du­los se pue­den en­con­trar va­rios ob­je­tos (in­clu­so di­fe­ren­tes) y, por ejem­plo, cla­si­fi­car­los según su po­si­ción. Ade­más, se pue­den rea­li­zar des­pla­za­mien­tos va­ria­bles en x e y, lo que au­men­ta enor­me­men­te la fle­xi­bi­li­dad de la apli­ca­ción de re­co­gi­da y co­lo­ca­ción. De­pen­dien­do de la apli­ca­ción, se puede de­fi­nir con pre­ci­sión por qué punto del ob­je­to debe re­co­ger­lo el robot: por la punta, el cen­tro o más bien la parte tra­se­ra. Los re­sul­ta­dos, como la po­si­ción de aga­rre o el con­torno del ob­je­to en­con­tra­do, se pue­den re­pre­sen­tar de forma in­di­vi­dual y fle­xi­ble en la vi­sua­li­za­ción ba­sa­da en la web.

Tiem­pos de ciclo re­du­ci­dos gra­cias a la cap­tu­ra de múl­ti­ples ob­je­tos

En el soft­wa­re uni­Vi­sion 3 de wen­glor se pue­den de­tec­tar va­rios ob­je­tos —in­clu­so di­fe­ren­tes— con una única toma de imá­ge­nes y trans­mi­tir sus coor­de­na­das al con­trol del robot. De este modo, el robot puede re­co­ger los ob­je­tos di­rec­ta­men­te uno tras otro, sin tener que vol­ver a al­can­zar la po­si­ción de de­tec­ción para la cap­tu­ra de la cá­ma­ra antes de cada re­co­gi­da. Esto re­du­ce sig­ni­fi­ca­ti­va­men­te el tiem­po del ciclo y au­men­ta la efi­cien­cia de la apli­ca­ción de re­co­gi­da y co­lo­ca­ción. 

Ca­li­bra­ción pre­ci­sa con ob­je­ti­vos de ca­li­bra­ción exac­tos

La cá­ma­ra 2D y el robot deben ca­li­brar­se ini­cial­men­te una vez. Para ello, hay ob­je­ti­vos de ca­li­bra­ción de alta pre­ci­sión en di­fe­ren­tes ta­ma­ños y ma­te­ria­les (vi­drio para apli­ca­cio­nes de luz trans­mi­ti­da, fibra de car­bono para apli­ca­cio­nes de luz in­ci­den­te). Se puede com­pro­bar si el pro­ce­so de ca­li­bra­ción se ha rea­li­za­do de forma co­rrec­ta di­rec­ta­men­te a tra­vés de una etapa de ve­ri­fi­ca­ción.

Hard­wa­re com­pa­ti­ble

uni­Vi­sion es el soft­wa­re es­tán­dar pa­ra­me­tri­za­ble para todos los pro­duc­tos de vi­sión de wen­glor. To­bias Braun, ex­per­to en pro­ce­sa­mien­to de imá­ge­nes de wen­glor, de­mues­tra en los si­guien­tes ví­deos el ma­ne­jo sen­ci­llo e in­tui­ti­vo del soft­wa­re uni­Vi­sion, así como las múl­ti­ples fi­na­li­da­des de todos los com­po­nen­tes de hard­wa­re de wen­glor, todo ello de una forma im­pac­tan­te.

Smart Ca­me­ras B60

Smart Camera B60 con autofoco y C mount

Cá­ma­ras de vi­sión ar­ti­fi­cial con con­tro­la­do­res de vi­sión ar­ti­fi­cial

Actualizaciones de licencias

Descargas de Robot Vision

Comunicación sobre el cumplimiento de la normativa técnica
Comunicación sobre el cumplimiento de la normativa técnica (107 KB)
Este do­cu­men­to sirve como prue­ba de la com­pa­ti­bi­li­dad de la Smart Ca­me­ra B60 con Uni­ver­sal Ro­bots. Dis­po­ni­ble solo en in­glés.
Examples Robotics 1.1.1
Examples Robotics 1.1.1 (13 MB)

El URCap per­mi­te la in­te­gra­ción sen­ci­lla de los equi­pos Robot Vi­sion de wen­glor en ro­bots de UR.

Re­co­gi­da y co­lo­ca­ción fren­te a Bin Pic­king. ¿Cuál es la di­fe­ren­cia?

Re­co­gi­da y co­lo­ca­ción: Lo­ca­li­zar y su­je­tar con pre­ci­sión

En las apli­ca­cio­nes Pick-​and-Place (re­co­gi­da y co­lo­ca­ción), las cá­ma­ras 2D lo­ca­li­zan los ob­je­tos que se deben re­co­ger y trans­mi­ten sus coor­de­na­das de po­si­ción al con­trol del robot. Esto per­mi­te que el robot re­co­ja los ob­je­tos con pre­ci­sión y luego los co­lo­que en otra po­si­ción.
La re­co­gi­da y co­lo­ca­ción es ade­cua­da para apli­ca­cio­nes sen­ci­llas y rá­pi­das en las que los ob­je­tos se se­pa­ran y se co­lo­can en un mismo plano. 
 

Bin Pic­king: Re­co­gi­da en el con­te­ne­dor

Bin Pic­king de­sig­na una apli­ca­ción au­to­ma­ti­za­da en la que los ro­bots re­ti­ran ob­je­tos de los con­te­ne­do­res dis­pues­tos a vo­lun­tad. Para ello se ne­ce­si­tan sen­so­res 3D que de­tec­ten la po­si­ción de los ob­je­tos en el es­pa­cio y la trans­mi­tan al robot.
El Bin Pic­king con sen­so­res 3D es ade­cua­do cuan­do los ob­je­tos no están es­pa­cia­dos y están dis­pues­tos en cual­quier po­si­ción.

Comparación de productos