Kategorien
Seiten
-
-

ROBOTIK UND MECHATRONIK

Kategorie: ‘IGMR’

Aktive Kollisionsvermeidung in der Mensch-Roboter-Kollaboration

18. February 2021 | von

Vor dem Hintergrund der Mensch-Roboter-Kollaboration untersucht das IGMR der RWTH Aachen innovative Ansätze zur sicheren Gestaltung teilautomatisierter Montage- und Produktionsprozesse.

Marktübliche Cobots sind in der Regel mit einer Geschwindigkeits- und Abstandsüberwachung beziehungsweise einer Leistungs- und Kraftbegrenzung nach ISO/TS 15066 ausgestattet. Entsprechende Roboter reagieren demnach im Gefährdungs- oder Kollisionsfall mit einer Reduktion der Prozessgeschwindigkeiten beziehungsweise mit einem Betriebshalt, wodurch industrielle Prozesse im Zweifel nachteilig beeinflusst werden.

Der hier vorgestellte Ansatz zeigt deshalb, wie sich Kollisionen zwischen Mensch und Roboter aktiv vermeiden lassen. Das Verfahren nutzt die kinematische Redundanz des KUKA LBR iiwa, um sensorisch erfassten Hindernissen durch die innere Rekonfiguration der Roboterkinematik auszuweichen. Die Trajektorie des Endeffektors wird dabei nicht verändert, sodass der vorgegebene Prozessablauf erhalten bleibt. In diesem Zusammenhang lassen sich alternative Sicherheitskonzepte entwickeln, die eine kollisionsfreie Automatisierung im Rahmen der Mensch-Roboter-Kollaboration ermöglichen.

 

Aktive Kollisionsvermeidung mit dem KUKA LBR iiwa – Referenzbewegung ohne Hindernisumfahrung:

Aktive Kollisionsvermeidung mit dem KUKA LBR iiwa – Referenzbewegung ohne Hindernisumfahrung

Der an dieser Stelle eingebundene Inhalt führt Sie auf Seiten, die von der von Google betriebenen Seite YouTube - YouTube, LLC, 901 Cherry Ave., San Bruno, CA 94066, USA - zur Verfügung gestellt werden. Mit dem Aufruf des Inhalts kann YouTube Ihre IP-Adresse und die Sprache des Systems, sowie verschiedene browserspezifische Angaben ermitteln. Wenn Sie in Ihrem YouTube-Account eingeloggt sind, ermöglichen Sie YouTube, Ihr Surfverhalten direkt Ihrem persönlichen Profil zuzuordnen. Dies können Sie verhindern, indem Sie sich aus Ihrem YouTube-Account ausloggen. YouTube verwendet Cookies und Tracking-Tools. Die Datenverarbeitungsvorgänge sowie die Zwecke der Verarbeitung können direkt bei YouTube erfragt und eingesehen werden.

 

Aktive Kollisionsvermeidung mit dem KUKA LBR iiwa – optimierter Bewegungsverlauf mit Hindernisumfahrung durch kinematische Rekonfiguration:

KUKA LBR iiwa:optimierter Bewegungsverlauf mit Hindernisumfahrung durch kinematische Rekonfiguration

Der an dieser Stelle eingebundene Inhalt führt Sie auf Seiten, die von der von Google betriebenen Seite YouTube - YouTube, LLC, 901 Cherry Ave., San Bruno, CA 94066, USA - zur Verfügung gestellt werden. Mit dem Aufruf des Inhalts kann YouTube Ihre IP-Adresse und die Sprache des Systems, sowie verschiedene browserspezifische Angaben ermitteln. Wenn Sie in Ihrem YouTube-Account eingeloggt sind, ermöglichen Sie YouTube, Ihr Surfverhalten direkt Ihrem persönlichen Profil zuzuordnen. Dies können Sie verhindern, indem Sie sich aus Ihrem YouTube-Account ausloggen. YouTube verwendet Cookies und Tracking-Tools. Die Datenverarbeitungsvorgänge sowie die Zwecke der Verarbeitung können direkt bei YouTube erfragt und eingesehen werden.

 

Ansprechpartner:

Jan Wiartalla

TCP- und Nullraum-Impedanz zum Umfahren von Objekten mit dem KUKA iiwa

15. December 2020 | von

Im Video werden zwei verschiedene Arten der Impedanz Regelung des KUKA iiwa gezeigt: TCP- und Nullraum-Impedanz. Darüber hinaus ist das Umfahren von Objekten mithilfe der Impedanz-Regelung umgesetzt worden.

https://youtu.be/VHrV-nh5oTU

 

Als erstes werden die zwei verschiedenen Arten der Impedanz-Regelung demonstriert. Zum einen lassen sich Steifigkeiten um die einzelnen TCP-Achsen programmieren. Im Video werden zwei verschiedene Steifigkeiten innerhalb einer Ebene gezeigt. Zum anderen gibt es die Nullraum-Impedanz. Dabei behält der Roboter die Pose des TCPs bei und der Arm kann weggedrückt werden. Wie im Video gezeigt, lässt sich damit ein Objekt „fühlend“ umfahren, während der programmierte TCP-Pfad eingehalten wird.

 

Projektseite: NextGeneration

 

Ansprechpartner:

Elodie Hüsing

Carlo Weidemann

IGMR als Mitglied des Deutsches Rettungsrobotikzentrum e.V.

04. December 2020 | von

Das IGMR ist seit diesem Jahr ordentliches Mitglied des „Deutsches Rettungsrobotikzentrum e.V.“. Dieses vom BMBF geförderte Kompetenzzentrum beschäftigt sich mit der Forschung an robotischen Themen im Bereich Feuerwehr, Polizei und Katastrophenschutz zusammen mit Partnern aus öffentlichem Dienst, Forschung und Anwendern. Kürzlich wurden die Arbeiten am ersten Abschnitt des Testgeländes in Dortmund abgeschlossen. Einen ersten Eindruck bieten die beigefügten Videos des „Deutsches Rettungsrobotikzentrum e.V.“.

Szenariofilm:

https://youtu.be/_EnzZrXJwJo

 

Meilensteintreffen:

A-DRZ - Aufzeichnung des Live-Streams zum Meilensteintreffen

Der an dieser Stelle eingebundene Inhalt führt Sie auf Seiten, die von der von Google betriebenen Seite YouTube - YouTube, LLC, 901 Cherry Ave., San Bruno, CA 94066, USA - zur Verfügung gestellt werden. Mit dem Aufruf des Inhalts kann YouTube Ihre IP-Adresse und die Sprache des Systems, sowie verschiedene browserspezifische Angaben ermitteln. Wenn Sie in Ihrem YouTube-Account eingeloggt sind, ermöglichen Sie YouTube, Ihr Surfverhalten direkt Ihrem persönlichen Profil zuzuordnen. Dies können Sie verhindern, indem Sie sich aus Ihrem YouTube-Account ausloggen. YouTube verwendet Cookies und Tracking-Tools. Die Datenverarbeitungsvorgänge sowie die Zwecke der Verarbeitung können direkt bei YouTube erfragt und eingesehen werden.

 

Internetseite:
https://rettungsrobotik.de/

Ansprechpartner:
Prof. Mathias Hüsing

Haptisches Feedbacksystem RePlaLink

13. November 2020 | von

Am IGMR wird das haptische Feedbacksystem RePlaLink (Reconfigurable Planar Linkage) entwickelt. Mit diesem System können handbetätigte Mechanismen haptisch simuliert UND interaktiv synthetisiert werden. Darüber hinaus können Anwender diese Mechanismen interaktiv synthetisieren. Damit sollen Mechanismen mit optimalen haptischen Eigenschaften entwickelt werden können.

Im Alltag interagieren Menschen sehr häufig mit handbetätigten Mechanismen, z.B. in Autotüren, Möbeltüren, rekonfigurierbaren Möbeln oder Fitnessgeräten. Die gefühlte Qualität dieser Mechanismen wird wesentlich durch deren haptischen Eigenschaften bestimmt. Der RePlaLink (Reconfigurable Planar Linkage) soll den Entwurf und die Entwicklung dieser Mechanismen durch die Anwendung haptischer Feedbacksysteme auf der Grundlage von virtuellen Prototypen unterstützen. Die haptische Simulations- und Synthesemethode ermöglicht es dem Benutzer, die kinematischen und kinetostatischen Eigenschaften von Mechanismen während der Bedienung des Systems direkt zu ertasten. Darüber hinaus können Anwender diese Eigenschaften interaktiv verändern und erhalten eine direkte haptische Rückmeldung. Im ersten Video wird der Aufbau des RePlaLink, bestehend aus einem ebenen Fünfglied mit zusätzlichem seriellen Glied für den Griff, gezeigt.

https://youtu.be/pemrysX4Cr8

Das zweite Video zeigt die haptische Simulation und Synthese am Beispiel einer Küchenschranktür.

https://youtu.be/0AqONOv1R5E

Projektseite:

https://www.igmr.rwth-aachen.de/index.php/de/gt/gt-replalink

Ansprechpartner:

Mahshid Pour Ebrahimabadi M.Sc.

Übung mit der Fanuc Education Cell im Modul Robotic Systems

09. November 2020 | von

Im Rahmen der praktischen Übung des Moduls https://www.igmr.rwth-aachen.de/index.php/de/lehrveranstaltungen/rs wird in unserem Robotic Lab die Fanuc Education Cell mit der Software Roboguide eingesetzt.

Die Studierenden lernen die grundlegende Bedienung einer Roboterzelle und setzen eigenhändig ein Logistik Szenario mit Hilfe der Software Roboguide um. Auch in diesem Semester können wir die praktischen Übungen remote aufrechterhalten. Dazu wurden umfangreiche Lehrmaterialien digitalisiert, damit die Studierenden von ihren eigenen Computern die Aufgabe simulativ lösen können.

 


Der an dieser Stelle eingebundene Inhalt führt Sie auf Seiten, die von der von Google betriebenen Seite YouTube - YouTube, LLC, 901 Cherry Ave., San Bruno, CA 94066, USA - zur Verfügung gestellt werden. Mit dem Aufruf des Inhalts kann YouTube Ihre IP-Adresse und die Sprache des Systems, sowie verschiedene browserspezifische Angaben ermitteln. Wenn Sie in Ihrem YouTube-Account eingeloggt sind, ermöglichen Sie YouTube, Ihr Surfverhalten direkt Ihrem persönlichen Profil zuzuordnen. Dies können Sie verhindern, indem Sie sich aus Ihrem YouTube-Account ausloggen. YouTube verwendet Cookies und Tracking-Tools. Die Datenverarbeitungsvorgänge sowie die Zwecke der Verarbeitung können direkt bei YouTube erfragt und eingesehen werden.

Internetseite zur Lehrveranstaltung:

https://www.igmr.rwth-aachen.de/index.php/de/lehrveranstaltungen/rs

Ansprechpartner:
Markus Schmitz

Den KUKA iiwa durch Handführung anlernen

23. October 2020 | von

Die Handführung des kollaborativen Roboters KUKA iiwa eignet sich gut zur Programmierung von Raumpunkten. Dies ist sowohl innerhalb eines Programms als auch im T1-Modus des Roboters möglich.

https://youtu.be/v7D4yknlxJI

Im Video wird die Handführung des KUKA iiwa innerhalb eines Programms gezeigt. Der Roboter lässt sich per Hand am Flansch führen, wenn der Anwender den grauen Zustimmtaster betätigt. Nach dem Loslassen, fragt das Programm, ob die aktuelle Position korrekt ist und abgespeichert werden soll. Anschließend können beliebig viele weitere Positionen hinzugefügt werden. Am Ende des Programms werden alle gespeicherten Raumpunkte in der angelernten Reihenfolge abgefahren.

 

Ansprechpartner:

Elodie Hüsing

Carlo Weidemann

Robotergeführte Formenerkennung und Beschichtung

16. October 2020 | von

• Automatische Formerkennung über Laserscanner und Trajektorienplanung für die Beschichtung

Automatische Formerkennung über Laserscanner und Trajektorienplanung für die Beschichtung.

Im Rahmen dieses Projekts werden die Formen erkannt und ihre Kanten durch einen Laserscanner realisiert, der am Endeffektor des Roboters montiert ist. Die gesammelten Daten werden synchronisiert und gefiltert, und es wird eine geeignete Trajektorie für die Beschichtung der Innenfläche der Formulare erstellt. Mehrere Variablen, wie z.B. die Geschwindigkeit der Düse, Abstände und Lücken, die Größe der Düse und der Outlier für eine homogene Beschichtung können während der Trajektorienplanung ausgewählt werden.

Das Projekt wurde in Kooperation mit International Partners in Glass Research e.V. durchgeführt.

Robotergeführte Formenerkennung und Beschichtung

Der an dieser Stelle eingebundene Inhalt führt Sie auf Seiten, die von der von Google betriebenen Seite YouTube - YouTube, LLC, 901 Cherry Ave., San Bruno, CA 94066, USA - zur Verfügung gestellt werden. Mit dem Aufruf des Inhalts kann YouTube Ihre IP-Adresse und die Sprache des Systems, sowie verschiedene browserspezifische Angaben ermitteln. Wenn Sie in Ihrem YouTube-Account eingeloggt sind, ermöglichen Sie YouTube, Ihr Surfverhalten direkt Ihrem persönlichen Profil zuzuordnen. Dies können Sie verhindern, indem Sie sich aus Ihrem YouTube-Account ausloggen. YouTube verwendet Cookies und Tracking-Tools. Die Datenverarbeitungsvorgänge sowie die Zwecke der Verarbeitung können direkt bei YouTube erfragt und eingesehen werden.

 

Ansprechpartner:

Markus Schmitz

 

Kamerakalibrierung in SHAREWORK

09. October 2020 | von

Im EU-Projekt SHAREWORK wird ein Framework für die Industrie entwickelt, dass es erlaubt Mensch-Roboter-Kollaboration auch mit schweren Industrierobotern durchzuführen. Wir entwickeln dazu kamerabasierte Methoden zur Lokalisierung von Gegenständen im Arbeitsraum und leiten daraus Prozesszustände ab, die wiederum in einer Aufgabenplanung weiterverarbeitet werden können.

Zur Inbetriebnahme des Kameranetzwerks haben wir vier Stereolabs ZED Stereokameras in unserer Halle aufgebaut und kalibriert. Bei der Kalibrierung kamen sowohl Zufalls-, Schachbrett-, Aruco-, als auch ChAruco-Muster zum Einsatz. Letztlich haben wir es geschafft die Kameras auf Sub-Pixelgenauigkeit zu kalibrieren. Im Video seht ihr ein paar Daten aus unseren Kalibriersets. Aktuell werden die Daten aufbereitet und wir hoffen in wenigen Wochen mehr zeigen zu können.

 

Kamerakalibrierung in SHAREWORK

Der an dieser Stelle eingebundene Inhalt führt Sie auf Seiten, die von der von Google betriebenen Seite YouTube - YouTube, LLC, 901 Cherry Ave., San Bruno, CA 94066, USA - zur Verfügung gestellt werden. Mit dem Aufruf des Inhalts kann YouTube Ihre IP-Adresse und die Sprache des Systems, sowie verschiedene browserspezifische Angaben ermitteln. Wenn Sie in Ihrem YouTube-Account eingeloggt sind, ermöglichen Sie YouTube, Ihr Surfverhalten direkt Ihrem persönlichen Profil zuzuordnen. Dies können Sie verhindern, indem Sie sich aus Ihrem YouTube-Account ausloggen. YouTube verwendet Cookies und Tracking-Tools. Die Datenverarbeitungsvorgänge sowie die Zwecke der Verarbeitung können direkt bei YouTube erfragt und eingesehen werden.

 

Projektseite:

https://www.igmr.rwth-aachen.de/index.php/de/rob/rob-sharework

 

Ansprechpartner:

Stefan Bezrucav

Nils Mandischer

Robot Companion: Ein mobiler Helfer in der Not

02. October 2020 | von

Robot Companion ist ein Framework, mit dem Roboterverfolgersysteme einfach und kostensparend umgesetzt werden können. Dazu entwickelt das IGMR Methoden zum Tracking mit unterschiedlicher Sensorik (Laser, Radar, Kamera), agiler Pfadplanung und Ansteuerung.

Das aktuelle Anwendungsziel von Robot Companion ist es, einen Roboter für Notretter bereitzustellen. Dabei folgt der Roboter den Einsatzkräften autonom und ermöglicht den Transport von Material und Ausrüstung, sowie den Abtransport von Schutt und Verunglückten. Ein erster Weg zu dieser Vision wurde mit dem Grundmodul umgesetzt. Das Grundmodul verfügt über Methoden zum Tracking mit Kamera und Laser und ermöglicht die autonome Verfolgung eines Operators.

Im Video zu erkennen sind die Tracks des vertikalen und horizontalen Trackers, sowie der Zustand der Detektion (oben rechts). In einem Verfolgungstest konnte eine Genauigkeit von 100% bei niedrigen Geschwindigkeiten erreicht werden.

 

https://youtu.be/imU8j2zlQrQ

 

Projektseite:

https://www.igmr.rwth-aachen.de/index.php/de/rob/rob-comp

Ansprechpartner:

Nils Mandischer

Next Generation – mit flexiblen Roboterlösungen inklusive Arbeit entwickeln

18. September 2020 | von

Rollstuhlfahrerin bzw. Rollstuhlfahrer sitzt an einem Produktionsarbeitsplatz und wird durch Roboter bei der Arbeit unterstützt.

Das Projekt Next Generation verfolgt das Ziel inklusive Arbeitsplätze mithilfe von Mensch-Roboter-Kollaboration (MRK) zu
entwickeln, um Lebensqualität zu steigern.

Menschen mit Schwerst- und Mehrfachbehinderung arbeiten meist unterhalb ihren
persönlichen kognitiven Fähigkeiten. Dies sorgt bei den Betroffenen für große Unzufriedenheit.
Aus diesem Grund gilt es innerhalb des Projekts „Next Generation – mit flexiblen
Roboterlösungen inklusive Arbeit entwickeln“ Arbeitsplätze mithilfe von Mensch-Roboter-
Kollaboration (MRK) zu entwickeln. Das Projekt soll Menschen mit Behinderung ermöglichen, am
Arbeitsleben teilzunehmen. Dies kann sowohl die Lebensqualität steigern als auch
Selbstverwirklichung, Selbstbestimmung und eine positive Persönlichkeitsentwicklung mit sich
führen.
Für Aufgaben aus der Industrie wurden zahlreiche Unternehmen aus dem Großraum Köln
gebeten, mögliche Musteranwendungen für die Konzeption des inklusiven Arbeitsplatzes zur
Verfügung zu stellen. Dabei wurden zwei Tätigkeiten zum einen bei der Buschhoff Stanztechnik
GmbH & Co. KG und zum anderen bei der Cölner Hofbräu P. Josef Früh KG identifiziert. Die
Konzeption und Umsetzung kann nun beginnen. Weitere aktuelle Informationen gibt es auf der
Website des Next Generation-Projektes.

 

Ansprechpartner:

Elodie Hüsing
Carlo Weidemann