www.mexicoindustrial.net
MEDIAWORLD

Extracción en recipientes colaborativa

¿Cómo se pueden implementar los escenarios de manipulación colaborativa en entornos no estructurados? SCHUNK ha analizado esta pregunta en colaboración con KUKA y Roboception. En un estudio sobre tecnología, las tres empresas demuestran cómo la extracción en recipientes colaborativa puede implementarse en el funcionamiento colaborativo de forma rápida, sencilla y eficiente.

Extracción en recipientes colaborativa
La tarea de ejemplo está diseñada de forma realista: un Cobot agarra las piezas de metal sin clasificar, las saca de un recipiente, las coloca en una rectificadora y las clasifica con precisión después del maquinado. Asimismo, los trabajadores deberían poder alimentar, mover o retirar manualmente las cajas de transporte o las piezas individuales durante el funcionamiento.

De esa manera, el estudio combina la extracción en recipientes con el concepto de colaboración entre humanos y robots (CHR), y utiliza la interacción de diferentes tecnologías de referencia, como la robótica, la tecnología de agarre y el reconocimiento de imágenes. Mediante una adaptación de datos basada en CAD, el sistema de cámara estéreo pasiva rc_visard de Roboception captura las piezas sin clasificar.

El primer sensor 3D del mundo, que permite a los robots realizar tanto mediciones 3D como posicionamientos en el espacio, procesa imágenes en profundidad totalmente resueltas en menos de 1 s en el propio sistema de cámara. Después las utiliza para determinar los mejores puntos de agarre en cada caso y los transmite directamente a un robot colaborativo de KUKA sin utilizar un PC externo.

Además de la imagen de la cámara, este sensor de grado industrial y precio atractivo ofrece una imagen en profundidad, una imagen de precisión y una imagen de confianza. La última sirve como medición de la confianza en las lecturas de profundidad, lo cual puede utilizarse como base para tomar decisiones a la hora de usar métodos de inteligencia artificial (IA).

Dado que el sistema de cámara pasiva reconoce su entorno tanto con luz natural como con iluminación artificial en diferentes entornos de trabajo de personas, puede funcionar en una gran variedad de entornos.

Gama de grippers Co-act

El extremo delantero del Cobot está equipado con un gripper Co-act de SCHUNK diseñado específicamente para la aplicación que cumple con los requisitos de las normas EN ISO 10218-1/-2 y ISO/TS 15066, y que permite una interacción segura con las personas. Todos los dispositivos electrónicos de regulación y potencia están integrados en el interior de la pinza, por lo tanto, no ocupan nada de espacio en el armario de control.

SCHUNK ha adaptado a la aplicación de forma individual tanto la interfaz como las dimensiones y los radios de interferencia. Además de estos grippers Co-act específicos de la aplicación, SCHUNK también ofrece una gama de grippers estándar para las aplicaciones colaborativas como, por ejemplo, el gripper para componentes pequeños Co-act EGP-C de SCHUNK con certificación DGUV y, próximamente, el gripper de carrera larga Co-act EGL-C de SCHUNK, que también contará con una certificación para aplicaciones colaborativas.

Con el último, será posible aplicar por primera vez fuerzas de agarre de hasta 450 N en aplicaciones de CHR.

Programación intuitiva de robots

La manipulación del Cobot permite una programación muy fácil e intuitiva de las nuevas posiciones de colocación. En caso de interrupciones no planificadas, el robot KUKA recuerda cada movimiento o actividad ejecutada y puede reanudar el trabajo ad hoc sin necesidad de reprogramarlo.

Dado que la solución se implementa muy fácilmente tanto en el sensor como en el robot y sin necesidad de mucha formación, es apropiada para una gran variedad de aplicaciones y grupos de usuarios. No requiere un amplio conocimiento de robótica ni de procesamiento de imágenes.

Además, reduce al mínimo la carga de trabajo de integración. Si es necesario, el sistema de cámara puede ampliarse para incluir proyectores y módulos adicionales para el aprendizaje neuronal. Puede utilizarse en el Cobot tanto de manera estacionaria como móvil, lo que significa que incluso es apropiado para los escenarios de agarre flexibles sobre plataformas móviles.

www.schunk.com

  Solicite más información…

LinkedIn
Pinterest

Únete a los más de 155,000 seguidores de IMP