Aufrufe
vor 2 Monaten

DER KONSTRUKTEUR 5/2020

  • Text
  • Wirkungsgrad
  • Einsatz
  • Anwender
  • Cobots
  • Anforderungen
  • Hohen
  • Robotik
  • Anwendungen
  • Konstrukteur
  • Roboter
DER KONSTRUKTEUR 5/2020

ROBOTIK KOORDINATEN IM

ROBOTIK KOORDINATEN IM BLICK SPECIAL Kollaborierende Roboter, sogenannte Cobots, unterstützen die Automatisierung von Handarbeit, mussten aber bislang manuell kalibriert werden. Durch einen automatischen Koordinatenabgleich per Vision Sensor sind sie jetzt innerhalb kurzer Zeit einsatzbereit. Ich sehe, was ich mache – für Menschen einfach, für Roboter eine Herausforderung. Um Robotik-Applikationen in immer mehr Bereichen der Automatisierung zu verankern, nimmt Bildverarbeitung eine Schlüsselrolle ein. Vision Sensoren wie die Baumer Verisens Modelle XF900 und XC900 können hier entscheidend unterstützen. Sie vereinen ein komplettes Bildverarbeitungssystem in einem kompakten, industrietauglichen Gehäuse und lassen sich zudem gut parametrieren. Bildverarbeitung wird für die Anwender damit deutlich einfacher. Es ist daher naheliegend, einen Verisens Vision Sensor und einen Universal Robots Cobot zu einem „sehenden“ Roboter zu vereinen, der einfacher, schneller und genauer einzurichten ist, als bisherige Lösungen. BILDVERARBEITUNG FÜR ROBOTER Roboter orientieren sich an eingelernten, festen Wegpunkten und fahren diese nacheinander ab. Bildverarbeitung erweitert diese Funktionalität enorm. Ein einfach mitgeführter Vision Sensor versetzt Autor: Michael Steinicke, Produktmanager, Vision Competence Center, Baumer Optronic GmbH, Radeberg den Roboter bereits in die Lage, Objekte sicher zu identifizieren. Gleichzeitig oder alternativ ist auch eine Qualitätskontrolle realisierbar, die der Roboter durch Verfahren des Sensors an festgelegten Positionen unterstützt. Objekte können anschließend auch automatisch sortiert werden. Die Königsdisziplin ist jedoch das Steuern des Roboters, bei der die Bildverarbeitung die Position von Objekten ermittelt, an den Roboter übergibt und ihm damit ein freies Greifen jenseits fester Wegpunkte ermöglicht. Objekte können dabei in beliebiger Orientierung auf einer Fläche liegen. Position, Rotation und optional weitere Daten, werden durch die Bildverarbeitung ermittelt und übergeben. SCHNITTSTELLE ZWISCHEN SENSOR UND COBOT Ähnlich dem von Smartphones bekannten App-Konzept nutzt Universal Robots für zertifiziertes Zubehör sogenannte Caps: Software-Plug-ins, die Anbauten wie einen Verisens Vision Sensor in der Universal Robots Programmierumgebung PolyScope nutzbar machen. Die Bildverarbeitungsaufgabe selbst wird komplett und wie gewohnt über die Verisens Application Suite parametriert – unabhängig vom Cobot in der dafür am besten geeigneten Umgebung. Die Funktionen des Verisens URCaps sind generisch und adressieren so alle denkbaren Applikationen einschließlich mitgeführter oder stationärer Anordnung des Vision Sensors. Neben der im URCap abgebildeten Routine zur Installation, werden für die Programmierung des Universal Robot lediglich zwei zusätzliche Knoten (Kommandos) in der Roboterprogrammierung benötigt. Für die Objektidentifizierung oder Qualitätskontrolle genügt bereits ein Knoten, um im Roboterprogramm einen Bildverarbeitungsjob auf dem Verisens auszulösen und die Ergebnisse als Variable im Programmablauf zur Entscheidungsfindung bereitzustellen. Damit kann der Cobot nun bereits Objekte sortieren. Für das bildbasierte Greifen kommt der zweite Knoten hinzu, der die festen Wegpunkte durch dynamische, bildbasierte ergänzt. Bei 38 DER KONSTRUKTEUR 2020/05 www.derkonstrukteur.de

ROBOTIK der einfachen Realisierung von Pick-und-Place Applikationen hilft optional ein speziell dafür geschaffener Assistent. DER CLOU: AUTOMATISCHE KALIBRIERUNG Roboter und Vision Sensor arbeiten in eigenen Koordinatensystemen, was funktionell erst bei der Übergabe von Objektpositionen vom Verisens an den Cobot relevant wird. Die Koordinaten des Vision Sensors müssen umgerechnet werden, um dem Roboterkoordinatensystem zu entsprechen. Die Ermittlung der notwendigen Koordinatentransformation wurde bisher als Hand-Auge-Kalibrierung durch das mehrfache manuelle Positionieren des Cobots mit einer Tastspitze auf einem speziellen Kalibriertarget gelöst. In v ielen Einzelschritten wird so eine vom Hersteller vorgegebene Prozedur durchlaufen. Dies ist mühsam und durch den händischen Eingriff, im Sinne der menschlichen Steuerung der Tastspitze, auch ungenau und fehleranfällig. Mit dem Smartgrid geht Baumer für seine Verisens Vision Sensoren den neuen Weg einer automatischen Kalibrierung. Der Clou liegt im intelligenten Bitmuster, das sich im üblichen Schachbrett- Format versteckt. Es liefert wertvolle Zusatzinformationen, die Verisens als intelligentes Bildverarbeitungsgerät lesen kann. Eine dieser Informationen ist die Position des Vision Sensors über dem Muster. Da der Cobot seine Koordinaten immer kennt, genügen wenige Linear- und Rotationsbewegungen, um die Koordinatensysteme automatisch miteinander abzugleichen. Diese Prozedur ist nicht nur sehr genau und frei von manuellen Fehlern – sie ist auch ganz einfach am Touchscreen des Cobots durchführbar. 01 Die Vision-Sensoren steuern die Cobots schon nach wenigen Minuten Einrichtung 02 Der Sensor erkennt das Bitmuster und unterstützt den automatischen Abgleich des Koordinatensystems 01 02 2D-VISON SENSOR FÜR 3D-ROBOTER Das Finden von Objekten ist aus Sicht der Koordinaten gelöst. Per Smartgrid wird jedoch viel mehr erreicht: Verisens nutzt auch das Raster, um ein ideales Bild zu lernen. Die Vision Sensoren können anschließend aufgenommene Bilder in Echtzeit entzerren, um u. a. die Objektiv-Verzeichnung zu korrigieren. Da das Bitmuster auch TRAUMPAAR DER AUTOMATION Im Bereich Qualitätskontrolle oder Handling sind sie ein Traumpaar: Cobots und Bildverarbeitungssysteme unterstützen den Menschen bei routinemäßigen Arbeitsabläufen und verringern das Fehlerrisiko in der Fertigung auf ein Minimum. Die Möglichkeit statt eingelernter Wege freie Positionen anzufahren, erhöht die Flexibilität und das Aufgabenspektrum der Cobots. Und auch der großen Herausforderung, den Roboter bis zum letzten Millimeter seines Einsatzes sicher und kontrollierbar zu machen, kommt die Industrie durch die Verwendung von intelligenten Bildverarbeitungssystemen wieder einen Schritt näher. Schön, wenn sich zwei so gut verstehen. INGA RONSDORF, Redakteurin Daten zur Größe vom jeweilig verwendeten Smartgrid liefert, liegen für Verisens nun alle Informationen zur Skalierung vor. Eine Umrechnung in Weltkoordinaten ist damit bereits automatisch eingestellt. Das Smartgrid unterstützt zusätzlich eine halbautomatische Z-Kalibrierung, mit der Verisens seine Position im Raum lernt und die Daten aus der Bildentzerrung auch im Raum anwenden kann. Damit wird eine letzte Herausforderung für Vision Guided Robotics gelöst: Der 2D-Vision Sensor muss einem 3D-Roboter Daten liefern. Es wäre nicht sehr nutzerfreundlich nur die Koordinaten der Bildebene nutzen zu können. Gerade ein Roboter benötigt auch Koordinaten in der Z-Achse, z. B. für den Greifer-Zugriff oder zur Erkennung von Markierungen. Dank Z-Kalibrierung ist die automatische Anpassung der Koordinaten in anderen Höhen möglich. Mit diesem innovativen Ansatz des automatischen Koordinatenabgleichs, der automatisieren Echtzeit-Bildentzerrung, der Umrechnung in Weltkoordinaten und Z-Kalibrierung, sind Vision Guided Robotics Anwendungen nun einfach realisierbar. Bilder: Aufmacher: attaphong – stock.adobe.com, Sonstige: Baumer Optronic GmbH www.baumer.com www.derkonstrukteur.de DER KONSTRUKTEUR 2020/05 39

AUSGABE