Kategorien
Seiten
-

ROBOTIK UND MECHATRONIK

Robotergeführte Formenerkennung und Beschichtung

16. Oktober 2020 | von

• Automatische Formerkennung über Laserscanner und Trajektorienplanung für die Beschichtung

Automatische Formerkennung über Laserscanner und Trajektorienplanung für die Beschichtung.

Im Rahmen dieses Projekts werden die Formen erkannt und ihre Kanten durch einen Laserscanner realisiert, der am Endeffektor des Roboters montiert ist. Die gesammelten Daten werden synchronisiert und gefiltert, und es wird eine geeignete Trajektorie für die Beschichtung der Innenfläche der Formulare erstellt. Mehrere Variablen, wie z.B. die Geschwindigkeit der Düse, Abstände und Lücken, die Größe der Düse und der Outlier für eine homogene Beschichtung können während der Trajektorienplanung ausgewählt werden.

Das Projekt wurde in Kooperation mit International Partners in Glass Research e.V. durchgeführt.

Dieses Video ansehen auf YouTube.
Der an dieser Stelle eingebundene Inhalt führt Sie auf Seiten, die von der von Google betriebenen Seite YouTube - YouTube, LLC, 901 Cherry Ave., San Bruno, CA 94066, USA - zur Verfügung gestellt werden. Mit dem Aufruf des Inhalts kann YouTube Ihre IP-Adresse und die Sprache des Systems, sowie verschiedene browserspezifische Angaben ermitteln. Wenn Sie in Ihrem YouTube-Account eingeloggt sind, ermöglichen Sie YouTube, Ihr Surfverhalten direkt Ihrem persönlichen Profil zuzuordnen. Dies können Sie verhindern, indem Sie sich aus Ihrem YouTube-Account ausloggen. YouTube verwendet Cookies und Tracking-Tools. Die Datenverarbeitungsvorgänge sowie die Zwecke der Verarbeitung können direkt bei YouTube erfragt und eingesehen werden.

 

Ansprechpartner:

Amir Shahidi, M.Sc. (ME) M.Sc. (EE)

Markus Schmitz M.Sc. RWTH

Kamerakalibrierung in SHAREWORK

09. Oktober 2020 | von

Im EU-Projekt SHAREWORK wird ein Framework für die Industrie entwickelt, dass es erlaubt Mensch-Roboter-Kollaboration auch mit schweren Industrierobotern durchzuführen. Wir entwickeln dazu kamerabasierte Methoden zur Lokalisierung von Gegenständen im Arbeitsraum und leiten daraus Prozesszustände ab, die wiederum in einer Aufgabenplanung weiterverarbeitet werden können.

Zur Inbetriebnahme des Kameranetzwerks haben wir vier Stereolabs ZED Stereokameras in unserer Halle aufgebaut und kalibriert. Bei der Kalibrierung kamen sowohl Zufalls-, Schachbrett-, Aruco-, als auch ChAruco-Muster zum Einsatz. Letztlich haben wir es geschafft die Kameras auf Sub-Pixelgenauigkeit zu kalibrieren. Im Video seht ihr ein paar Daten aus unseren Kalibriersets. Aktuell werden die Daten aufbereitet und wir hoffen in wenigen Wochen mehr zeigen zu können.

 

Dieses Video ansehen auf YouTube.
Der an dieser Stelle eingebundene Inhalt führt Sie auf Seiten, die von der von Google betriebenen Seite YouTube - YouTube, LLC, 901 Cherry Ave., San Bruno, CA 94066, USA - zur Verfügung gestellt werden. Mit dem Aufruf des Inhalts kann YouTube Ihre IP-Adresse und die Sprache des Systems, sowie verschiedene browserspezifische Angaben ermitteln. Wenn Sie in Ihrem YouTube-Account eingeloggt sind, ermöglichen Sie YouTube, Ihr Surfverhalten direkt Ihrem persönlichen Profil zuzuordnen. Dies können Sie verhindern, indem Sie sich aus Ihrem YouTube-Account ausloggen. YouTube verwendet Cookies und Tracking-Tools. Die Datenverarbeitungsvorgänge sowie die Zwecke der Verarbeitung können direkt bei YouTube erfragt und eingesehen werden.

 

Projektseite:

https://www.igmr.rwth-aachen.de/index.php/de/rob/rob-sharework

 

Ansprechpartner:

Stefan Bezrucav

Nils Mandischer

Robot Companion: Ein mobiler Helfer in der Not

02. Oktober 2020 | von

Robot Companion ist ein Framework, mit dem Roboterverfolgersysteme einfach und kostensparend umgesetzt werden können. Dazu entwickelt das IGMR Methoden zum Tracking mit unterschiedlicher Sensorik (Laser, Radar, Kamera), agiler Pfadplanung und Ansteuerung.

Das aktuelle Anwendungsziel von Robot Companion ist es, einen Roboter für Notretter bereitzustellen. Dabei folgt der Roboter den Einsatzkräften autonom und ermöglicht den Transport von Material und Ausrüstung, sowie den Abtransport von Schutt und Verunglückten. Ein erster Weg zu dieser Vision wurde mit dem Grundmodul umgesetzt. Das Grundmodul verfügt über Methoden zum Tracking mit Kamera und Laser und ermöglicht die autonome Verfolgung eines Operators.

Im Video zu erkennen sind die Tracks des vertikalen und horizontalen Trackers, sowie der Zustand der Detektion (oben rechts). In einem Verfolgungstest konnte eine Genauigkeit von 100% bei niedrigen Geschwindigkeiten erreicht werden.

 

Dieses Video ansehen auf YouTube.
Der an dieser Stelle eingebundene Inhalt führt Sie auf Seiten, die von der von Google betriebenen Seite YouTube - YouTube, LLC, 901 Cherry Ave., San Bruno, CA 94066, USA - zur Verfügung gestellt werden. Mit dem Aufruf des Inhalts kann YouTube Ihre IP-Adresse und die Sprache des Systems, sowie verschiedene browserspezifische Angaben ermitteln. Wenn Sie in Ihrem YouTube-Account eingeloggt sind, ermöglichen Sie YouTube, Ihr Surfverhalten direkt Ihrem persönlichen Profil zuzuordnen. Dies können Sie verhindern, indem Sie sich aus Ihrem YouTube-Account ausloggen. YouTube verwendet Cookies und Tracking-Tools. Die Datenverarbeitungsvorgänge sowie die Zwecke der Verarbeitung können direkt bei YouTube erfragt und eingesehen werden.

 

Projektseite:

https://www.igmr.rwth-aachen.de/index.php/de/rob/rob-comp

 

Ansprechpartner:

Nils Mandischer

Next Generation – mit flexiblen Roboterlösungen inklusive Arbeit entwickeln

18. September 2020 | von

Rollstuhlfahrerin bzw. Rollstuhlfahrer sitzt an einem Produktionsarbeitsplatz und wird durch Roboter bei der Arbeit unterstützt.

Das Projekt Next Generation verfolgt das Ziel inklusive Arbeitsplätze mithilfe von Mensch-Roboter-Kollaboration (MRK) zu
entwickeln, um Lebensqualität zu steigern.

Menschen mit Schwerst- und Mehrfachbehinderung arbeiten meist unterhalb ihren
persönlichen kognitiven Fähigkeiten. Dies sorgt bei den Betroffenen für große Unzufriedenheit.
Aus diesem Grund gilt es innerhalb des Projekts „Next Generation – mit flexiblen
Roboterlösungen inklusive Arbeit entwickeln“ Arbeitsplätze mithilfe von Mensch-Roboter-
Kollaboration (MRK) zu entwickeln. Das Projekt soll Menschen mit Behinderung ermöglichen, am
Arbeitsleben teilzunehmen. Dies kann sowohl die Lebensqualität steigern als auch
Selbstverwirklichung, Selbstbestimmung und eine positive Persönlichkeitsentwicklung mit sich
führen.
Für Aufgaben aus der Industrie wurden zahlreiche Unternehmen aus dem Großraum Köln
gebeten, mögliche Musteranwendungen für die Konzeption des inklusiven Arbeitsplatzes zur
Verfügung zu stellen. Dabei wurden zwei Tätigkeiten zum einen bei der Buschhoff Stanztechnik
GmbH & Co. KG und zum anderen bei der Cölner Hofbräu P. Josef Früh KG identifiziert. Die
Konzeption und Umsetzung kann nun beginnen. Weitere aktuelle Informationen gibt es auf der
Website des Next Generation-Projektes.

 

Ansprechpartner:

Michael Lorenz
Elodie Hüsing
Carlo Weidemann

Fahrerlose Transportsysteme

11. September 2020 | von

Fahrerlose Transportsysteme
Bildquelle: TRAPO AG

Fahrerlose Transportsysteme werden immer häufiger in modernen Anlagen und Lager integriert. Trapo AG hat ein führendes Produkt in der Branche, der Trapo Transport Shuttle (TTS), mit der Unterstützung vom IGMR der RWTH Aachen entwickelt. Die Mitarbeiter des IGMR waren bei der Entwicklung und Integration von den Lokalisierung- und Navigationsalgorithmen, bei der Erstellung  der Zustandsmaschinen, durch welchen das Verhalten vom TTS bestimmt ist, und bei den intensiven Testphasen involviert. Alle Methoden und Algorithmen wurden in der ROS Umgebung integriert und konfiguriert. Das ganze System wurde schon erfolgreich beim Kunde im Betrieb genommen.

 

Ansprechpartner:

Stefan Bezrucav
Markus Schmitz

Kooperative mobile Manipulation in Produktionslinien im „Internet of Production“

14. August 2020 | von

Anwendungen der mobilen Manipulation in den Arbeitsumgebungen der „Factory of Future“.

Internet of Production (IoP) hat die Vision, die domänenübergreifende Zusammenarbeit in Produktionslinien auf einer neuen Ebene zu ermöglichen. Die Mobilisierung von Roboter-Agenten und Ressourcen sind die Essenzen der Produktionslinien der Fabrik der Zukunft. Um die Roboteragenten in die Lage zu versetzen, auf die Änderung der Produktionslinien zu reagieren, suchen wir im IGMR nach dynamischer Bewegungsplanung und -steuerung der mobilen Manipulatoren.

 

 

Dieses Video ansehen auf YouTube.
Der an dieser Stelle eingebundene Inhalt führt Sie auf Seiten, die von der von Google betriebenen Seite YouTube - YouTube, LLC, 901 Cherry Ave., San Bruno, CA 94066, USA - zur Verfügung gestellt werden. Mit dem Aufruf des Inhalts kann YouTube Ihre IP-Adresse und die Sprache des Systems, sowie verschiedene browserspezifische Angaben ermitteln. Wenn Sie in Ihrem YouTube-Account eingeloggt sind, ermöglichen Sie YouTube, Ihr Surfverhalten direkt Ihrem persönlichen Profil zuzuordnen. Dies können Sie verhindern, indem Sie sich aus Ihrem YouTube-Account ausloggen. YouTube verwendet Cookies und Tracking-Tools. Die Datenverarbeitungsvorgänge sowie die Zwecke der Verarbeitung können direkt bei YouTube erfragt und eingesehen werden.

 

Weitere Informationen zum Internet of Production:
https://www.igmr.rwth-aachen.de/index.php/de/rob/rob-iop

https://www.iop.rwth-aachen.de

 

Ansprechpartner:

Amir Shahidi M.Sc. M.Sc.

Multidirektionale Additive Fertigung im Lichtbogenschweißverfahren

06. August 2020 | von

Im Zusammenarbeit mit dem ISF, RWTH Aachen forschen wir am IGMR an der Multidirektionalen Additiven Fertigung. In dieser Anwendung zur Herstellung von Metallbauteilen.

Die Multidirektionale Additive Fertigung ermöglicht sowohl im klassischen FDM-Verfahren mit Kunststoff als auch bei schichtweisen Aufbau im Lichtbogenschweißverfahren die Herstellung von komplexen Bauteilen ohne Stützstrukturen. Am IGMR wird dazu die gesamte Prozesskette der Additiven Fertigung auf die besonderen Herausforderungen dieses Verfahren aus robotischer Sicht erweitert. Dazu gehört die Zerlegung eines virtuellen Bauteils in Schichten (Slicing), die anschließende Planung eines kollisionsfreien Aufbaus, die Generierung von ausführbaren Roboterpfaden zum Ausfüllen der Schichten sowie der notwendigen Trajektorienplanung.

 

Dieses Video ansehen auf YouTube.
Der an dieser Stelle eingebundene Inhalt führt Sie auf Seiten, die von der von Google betriebenen Seite YouTube - YouTube, LLC, 901 Cherry Ave., San Bruno, CA 94066, USA - zur Verfügung gestellt werden. Mit dem Aufruf des Inhalts kann YouTube Ihre IP-Adresse und die Sprache des Systems, sowie verschiedene browserspezifische Angaben ermitteln. Wenn Sie in Ihrem YouTube-Account eingeloggt sind, ermöglichen Sie YouTube, Ihr Surfverhalten direkt Ihrem persönlichen Profil zuzuordnen. Dies können Sie verhindern, indem Sie sich aus Ihrem YouTube-Account ausloggen. YouTube verwendet Cookies und Tracking-Tools. Die Datenverarbeitungsvorgänge sowie die Zwecke der Verarbeitung können direkt bei YouTube erfragt und eingesehen werden.

 

Ansprechpartner:

Markus Schmitz

Carlo Weidemann

Industrieprojekt Trapo Loading System

10. Juli 2020 | von


Bildquelle: Pressemitteilung Trapo AG

Das IGMR – RWTH Aachen unterstützt die Trapo  AG bei der Entwicklung und Integration von Trajektorieplanung- und Trajektorieausführungsalgorithmen, Umgebungwahrnehmung und Kommunikation mit dem PLC für den neuen Trapo Loading System Roboter.

Link zur Pressemeldung der Trapo AG.

Ansprechpartner:
Stefan Bezrucav
Markus Schmitz

 

SLAM Validierung mittels iGPS

03. Juli 2020 | von

Zur Validierung von Lokalisierungs- und Kartierungsalgorithmen (SLAM) für mobile Roboter verwenden wir am IGMR das indoor Global Positioning System von Nikon.

Die gleichzeitige Erfassung der eigenen Position und die Kartierung der Umgebung ist ein klassisches Problem in der mobilen Robotik und nach wie vor ein aktuelles Forschungsthema. Insbesondere die Steigerung von Genauigkeit, Allgemeingültigkeit und Robustheit sind Ziele aktueller Entwicklungen. Aus diesem Grund validieren wir unsere Algorithmen in der mobilen Robotik mit dem Nikon iGPS, um auch für große Szenarien eine Ground Trouth mit einer Frequenz von 40 Hz und einer Genauigkeit von 0,2 mm nutzen zu können. Auf diese Weise können kritische Ungenauigkeiten und Loop Closure Methoden deutlich besser quantifiziert und analysiert werden.

Projektseite:
Bots2Rec

Ansprechpartner:
Sascha Weil

Erfolg des IGMR bei der Fanuc Olympiade 2020

26. Juni 2020 | von

Carlo Weidemann und Alexander Vuchkov gewinnen als Team des IGMR – RWTH Aachen die Fanuc Olympiade 2020

Internetseite:
http://fanuc-olympiade.de/

Link zum Video von Fanuc Deutschland bei Facebook:
https://www.facebook.com/watch/?v=657843784780632

 

Ansprechpartner:

Alexander Vuchkov

Carlo Weidemann

Markus Schmitz