Archiv für October 2020
Den KUKA iiwa durch Handführung anlernen
Die Handführung des kollaborativen Roboters KUKA iiwa eignet sich gut zur Programmierung von Raumpunkten. Dies ist sowohl innerhalb eines Programms als auch im T1-Modus des Roboters möglich.
https://youtu.be/v7D4yknlxJI
Im Video wird die Handführung des KUKA iiwa innerhalb eines Programms gezeigt. Der Roboter lässt sich per Hand am Flansch führen, wenn der Anwender den grauen Zustimmtaster betätigt. Nach dem Loslassen, fragt das Programm, ob die aktuelle Position korrekt ist und abgespeichert werden soll. Anschließend können beliebig viele weitere Positionen hinzugefügt werden. Am Ende des Programms werden alle gespeicherten Raumpunkte in der angelernten Reihenfolge abgefahren.
Ansprechpartner:
Robotergeführte Formenerkennung und Beschichtung
Automatische Formerkennung über Laserscanner und Trajektorienplanung für die Beschichtung.
Im Rahmen dieses Projekts werden die Formen erkannt und ihre Kanten durch einen Laserscanner realisiert, der am Endeffektor des Roboters montiert ist. Die gesammelten Daten werden synchronisiert und gefiltert, und es wird eine geeignete Trajektorie für die Beschichtung der Innenfläche der Formulare erstellt. Mehrere Variablen, wie z.B. die Geschwindigkeit der Düse, Abstände und Lücken, die Größe der Düse und der Outlier für eine homogene Beschichtung können während der Trajektorienplanung ausgewählt werden.
Das Projekt wurde in Kooperation mit International Partners in Glass Research e.V. durchgeführt.
Der an dieser Stelle eingebundene Inhalt führt Sie auf Seiten, die von der von Google betriebenen Seite YouTube - YouTube, LLC, 901 Cherry Ave., San Bruno, CA 94066, USA - zur Verfügung gestellt werden. Mit dem Aufruf des Inhalts kann YouTube Ihre IP-Adresse und die Sprache des Systems, sowie verschiedene browserspezifische Angaben ermitteln. Wenn Sie in Ihrem YouTube-Account eingeloggt sind, ermöglichen Sie YouTube, Ihr Surfverhalten direkt Ihrem persönlichen Profil zuzuordnen. Dies können Sie verhindern, indem Sie sich aus Ihrem YouTube-Account ausloggen. YouTube verwendet Cookies und Tracking-Tools. Die Datenverarbeitungsvorgänge sowie die Zwecke der Verarbeitung können direkt bei YouTube erfragt und eingesehen werden.
Ansprechpartner:
Kamerakalibrierung in SHAREWORK
Im EU-Projekt SHAREWORK wird ein Framework für die Industrie entwickelt, dass es erlaubt Mensch-Roboter-Kollaboration auch mit schweren Industrierobotern durchzuführen. Wir entwickeln dazu kamerabasierte Methoden zur Lokalisierung von Gegenständen im Arbeitsraum und leiten daraus Prozesszustände ab, die wiederum in einer Aufgabenplanung weiterverarbeitet werden können.
Zur Inbetriebnahme des Kameranetzwerks haben wir vier Stereolabs ZED Stereokameras in unserer Halle aufgebaut und kalibriert. Bei der Kalibrierung kamen sowohl Zufalls-, Schachbrett-, Aruco-, als auch ChAruco-Muster zum Einsatz. Letztlich haben wir es geschafft die Kameras auf Sub-Pixelgenauigkeit zu kalibrieren. Im Video seht ihr ein paar Daten aus unseren Kalibriersets. Aktuell werden die Daten aufbereitet und wir hoffen in wenigen Wochen mehr zeigen zu können.
Der an dieser Stelle eingebundene Inhalt führt Sie auf Seiten, die von der von Google betriebenen Seite YouTube - YouTube, LLC, 901 Cherry Ave., San Bruno, CA 94066, USA - zur Verfügung gestellt werden. Mit dem Aufruf des Inhalts kann YouTube Ihre IP-Adresse und die Sprache des Systems, sowie verschiedene browserspezifische Angaben ermitteln. Wenn Sie in Ihrem YouTube-Account eingeloggt sind, ermöglichen Sie YouTube, Ihr Surfverhalten direkt Ihrem persönlichen Profil zuzuordnen. Dies können Sie verhindern, indem Sie sich aus Ihrem YouTube-Account ausloggen. YouTube verwendet Cookies und Tracking-Tools. Die Datenverarbeitungsvorgänge sowie die Zwecke der Verarbeitung können direkt bei YouTube erfragt und eingesehen werden.
Projektseite:
https://www.igmr.rwth-aachen.de/index.php/de/rob/rob-sharework
Ansprechpartner:
Robot Companion: Ein mobiler Helfer in der Not
Robot Companion ist ein Framework, mit dem Roboterverfolgersysteme einfach und kostensparend umgesetzt werden können. Dazu entwickelt das IGMR Methoden zum Tracking mit unterschiedlicher Sensorik (Laser, Radar, Kamera), agiler Pfadplanung und Ansteuerung.
Das aktuelle Anwendungsziel von Robot Companion ist es, einen Roboter für Notretter bereitzustellen. Dabei folgt der Roboter den Einsatzkräften autonom und ermöglicht den Transport von Material und Ausrüstung, sowie den Abtransport von Schutt und Verunglückten. Ein erster Weg zu dieser Vision wurde mit dem Grundmodul umgesetzt. Das Grundmodul verfügt über Methoden zum Tracking mit Kamera und Laser und ermöglicht die autonome Verfolgung eines Operators.
Im Video zu erkennen sind die Tracks des vertikalen und horizontalen Trackers, sowie der Zustand der Detektion (oben rechts). In einem Verfolgungstest konnte eine Genauigkeit von 100% bei niedrigen Geschwindigkeiten erreicht werden.
https://youtu.be/imU8j2zlQrQ
Projektseite:
https://www.igmr.rwth-aachen.de/index.php/de/rob/rob-comp
Ansprechpartner: