Schlagwort: ‘Roboterprogrammierung’
Kollisionsfreie Trajektorienplanung für wachsende Bauteile in der robotergestützten Fertigung
Der an dieser Stelle eingebundene Inhalt führt Sie auf Seiten, die von der von Google betriebenen Seite YouTube - YouTube, LLC, 901 Cherry Ave., San Bruno, CA 94066, USA - zur Verfügung gestellt werden. Mit dem Aufruf des Inhalts kann YouTube Ihre IP-Adresse und die Sprache des Systems, sowie verschiedene browserspezifische Angaben ermitteln. Wenn Sie in Ihrem YouTube-Account eingeloggt sind, ermöglichen Sie YouTube, Ihr Surfverhalten direkt Ihrem persönlichen Profil zuzuordnen. Dies können Sie verhindern, indem Sie sich aus Ihrem YouTube-Account ausloggen. YouTube verwendet Cookies und Tracking-Tools. Die Datenverarbeitungsvorgänge sowie die Zwecke der Verarbeitung können direkt bei YouTube erfragt und eingesehen werden.
Im Rahmen des Forschungsprojekts FunkDAF untersucht das IGMR gemeinsam mit dem MSE und dem VCI der RWTH Aachen die Grenzen der additiven Fertigung. Unser Fokus liegt auf der multidirektionalen Fertigung: Anstatt Bauteile wie beim herkömmlichen 3D-Druck in planare Schichten zu zerlegen, generieren wir Druckpfade basierend auf Spannungsdaten, um lastpfadgerechte und somit stabilere Strukturen zu schaffen.
Die Kinematik: Wir nutzen einen 6-Achs-Industrieroboter in einer „Robot-Guided“-Konfiguration. Dabei führt der Roboter das Druckbett samt Bauteil unter einem stationären Extruder. Diese Nutzung aller sechs Freiheitsgrade ermöglicht den Druck komplexer, nicht-planarer Geometrien und erlaubt es, Bauteilabschnitte in variablen Orientierungen zur Schwerkraft zu fertigen.
Die Herausforderung: Die Trajektorienplanung für solche Systeme ist hochkomplex. Anders als bei statischen Druckbetten bewegen wir hier ein dynamisch wachsendes Werkstück im Raum. Das Bauteil selbst wird während des Prozesses zu einem potenziellen Kollisionsobjekt gegenüber der Düse und der Umgebung. Erschwerend kommt hinzu, dass der Extrusionsprozess zwingend einen minimalen Arbeitsabstand zur stationären Düse erfordert. Die Pfadplanung muss also nicht nur die Extrusion berücksichtigen, sondern auch präzise berechnen, wie sich das Bauteilvolumen verändert.
Besonders kritisch sind die Travelpfade (Leerfahrten) zwischen einzelnen Drucksegmenten. Hier muss der Roboter das Bauteil oft vollständig umorientieren, um den nächsten Abschnitt kollisionsfrei zu erreichen. Unsere aktuellen Experimente (siehe Bilder) demonstrieren dies eindrucksvoll:
- Helix auf Zylinder: Erfordert eine kontinuierliche, koordinierte Rotation, um Material auf einer gekrümmten Oberfläche abzulegen.
- Orthogonale Quader: Zeigen die Fähigkeit, durch eine 90°-Umorientierung Überhänge ohne Stützstrukturen zu drucken.
Ansprechpartner: Mark Witte
Weitere Informationen zum Projekt finden Sie hier.
FunkDAF: Mehrdimensionale additive Fertigung
Am IGMR arbeiten wir im Rahmen des DFG-geförderten Forschungsprojekts FunkDAF gemeinsam mit den Instituten MSE und VCI an der nächsten Generation der additiven Fertigung: der schichtlosen, mehrdimensionalen Materialdeposition.
🔹 Was bedeutet das?
Durch multiaxiale additive Fertigung mit einem robotergeführten Druckbett können wir Material entlang von Spannungsverläufen gezielt ablegen. Dies führt zu einer verbesserten Materialausnutzung und reduziert die Nachteile des schichtweisen Aufbaus.
🔹 Unsere Herausforderungen:
– Präzise Roboterführung entlang der Druckpfade
– Synchronisation von Extruder und Roboterbewegung
– Konstante Druckgeschwindigkeit für höchste Qualität
Die Druckpfade werden am VCI aus FEM-Spannungsdaten generiert – so entstehen mechanisch optimierte Strukturen. 💡
Ansprechpartner:
Mark Witte – witte@igmr.rwth-aachen.de
Automatisierte robotische Demontage – Schraubenerkennung und -entfernung für das Recycling von EV-Batterien
Vollautomatische Demontage mit Präzision!
Unser neues robotisches System revolutioniert die Demontage von E-Auto-Batterien. Mithilfe des Neura Lara 8 Roboters und modernster Bildverarbeitungstechnologien erkennen wir Schrauben vollautomatisch und positionieren den Roboter präzise, um sie sicher zu entfernen.
Durch die Integration von YOLOv8 und Intel RealSense Tiefenkameras kann das System Schrauben in Echtzeit lokalisieren und selbstständig die optimale Positionierung vornehmen. Kein manuelles Eingreifen nötig – das System arbeitet komplett autonom!
Unser Ziel: Den Recyclingprozess sicherer, schneller und effizienter zu machen. Weniger Risiken für die Arbeiter und gleichzeitig eine Maximierung der Rohstoffrückgewinnung. Das ist die Zukunft der Kreislaufwirtschaft!
Weitere Informationen zu #dimonta findet ihr hier.
Ansprechpartner:
Markus Schmitz
Daniel Gossen
Simulation einer teilautomatisierten, robotischen Fliesenlegehilfe
Der an dieser Stelle eingebundene Inhalt führt Sie auf Seiten, die von der von Google betriebenen Seite YouTube - YouTube, LLC, 901 Cherry Ave., San Bruno, CA 94066, USA - zur Verfügung gestellt werden. Mit dem Aufruf des Inhalts kann YouTube Ihre IP-Adresse und die Sprache des Systems, sowie verschiedene browserspezifische Angaben ermitteln. Wenn Sie in Ihrem YouTube-Account eingeloggt sind, ermöglichen Sie YouTube, Ihr Surfverhalten direkt Ihrem persönlichen Profil zuzuordnen. Dies können Sie verhindern, indem Sie sich aus Ihrem YouTube-Account ausloggen. YouTube verwendet Cookies und Tracking-Tools. Die Datenverarbeitungsvorgänge sowie die Zwecke der Verarbeitung können direkt bei YouTube erfragt und eingesehen werden.
Im Rahmen des ErgoFli Projekts wird in Zusammenarbeit mit Projektpartnern ein innovatives System entwickelt, das Fliesenverlegern helfen soll, ihre Arbeit ergonomischer und effizienter zu gestalten.
In dem Video könnt ihr sehen, wie das System in der Simulationsumgebung Gazebo arbeitet. Der Roboter entnimmt automatisch Fliesen aus einem Magazin und passt sie perfekt zu den bereits verlegten Fliesen an. Mit automatischen Verfahren können mehrere Fliesen hintereinander verlegt werden, um den Arbeitsprozess zu optimieren.
Unser Ziel ist es, ein Hilfsmittel zu schaffen, das nicht nur die Arbeitsbelastung für Fliesenleger reduziert, sondern auch ihre Arbeitsumgebung verbessert. Wir sind begeistert von den Fortschritten und freuen uns darauf, euch bald weitere Einblicke zu geben!
Erfahre hier noch mehr über das Projekt.
Ansprechpartner:
Mark Witte
Jan Wiartalla
Robot Cooking – Überführung von Beobachtungen in eine Planungssprache
Überführung von Beobachtungen in eine Planungssprache: Ein automatisierter Ansatz im Bereich des Kochen
Im Robot Cooking Projekt wird eine automatisierte Methode entwickelt, um Bewegungsdaten zu analysieren, identifizieren und in eine maschinenlesbare Planungssprache zu überführen. Dies geschieht am Beispiel eines Kochszenarios, indem die Bewegungsdaten durch die Aufzeichnung der Handpose des Kochs erfasst werden.
Die Aufzeichnung erfolgt mit einem Motion-Capture-System, bestehend aus sieben Kameras und einem Handschuh mit drei Markern auf dem Handrücken des Kochs. Die Position der Marker wird durch Triangulation bestimmt. Dies liefert genügend Informationen, um die Handpose abzuleiten. Die Aufnahme erfolgt mit 120 Bildern pro Sekunde. Vor dem Kochvorgang werden alle Objekte im Arbeitsraum identifiziert und ihre Ausgangspositionen bestimmt. Die Bewegungsdaten werden kontinuierlich aufgezeichnet und in Posen mit Zeitstempeln umgewandelt. Zusätzliche Informationen wie Geschwindigkeit, Beschleunigung und Winkel in Bezug auf die Tischplatte werden aus den Rohdaten abgeleitet.
Eine erste Strukturierung des Datensatzes erfolgt durch die Identifizierung der Nebenhandlungen mittels Klassifikation. Hierbei werden Greifen, Bewegen und Ablegen als wiederkehrende Handlungen erkannt. Ein eigener Trainingsdatensatz wird verwendet, um einen Klassifikator zu trainieren, der diese Handlungen erkennt. Dies ermöglicht eine einfachere Analyse der verbleibenden Aktionen.
Das Clustering wird angewendet, um unbekannte Aktionen zu identifizieren. Ein dynamischer Ansatz ermöglicht die Analyse trotz hoher Variabilität in der Ausführung. Ein eindeutiger Fingerabdruck für jede Handlung wird gefunden, basierend auf der Ausrichtung des Handrückens und seiner Geschwindigkeit auf der Tischebene, um jedes Einzelbild einem Cluster und schließlich einer Aktionen zuzuordnen.
Die gewonnenen Erkenntnisse aus Klassifikation und Clustering werden in eine maschinenlesbare Planning Domain Definition Language (PDDL) übersetzt. Ein Zeitplan wird erstellt, wobei bekannte Aktionen direkt zugeordnet werden. Start- und Endpositionen werden festgelegt, und virtuelle Objektverfolgung wird verwendet, um den Verlauf von Objekten während des Kochens darzustellen. Für unbekannte Aktionen werden Vorbedingungen und Auswirkungen dynamisch gehandhabt. Die Ergebnisse werden in eine maschinenlesbare PDDL übersetzt. Diese formale Darstellung ermöglicht die effiziente automatische Planung und Ausführung der zuvor demonstrierten Kochaufgabe.
Zusätzliche Informationen sind im oben verlinkten Video, dem Poster und dem Paper verfügbar.
Ansprechpartner:
Markus Schmitz
Erste Bewegung des PARAGRIPs mit neuer Steuerung
Um für seine zukünftigen Aufgaben in der Multidirektionalen Additiven Fertigung (MDAM) mittels Lichtbogenschweißen (WAAM) optimal gewappnet zu sein, wurde die Steuerungsarchitektur des PARAGRIPs grundlegend überarbeitet. Ab sofort können Bewegungen aller vier Arme unter ROS2 mit MoveIt geplant, simuliert und am echten Roboter ausgeführt werden. Dabei werden die Gelenkstellungen des physischen Roboters stets an ROS2 zurückgespielt, wodurch eine Integration von online-Planungsalgorithmen in der Zukunft ermöglicht wird. Das Video zeigt die Planung und Ausführung einer einfachen Testbewegung des PARAGRIPs.
Weitere Informationen zu dem Projekt findet ihr hier.
Ansprechpartner: Jan Wiartalla
Ein mehrschichtiger Task-Sequencing-Ansatz
Cobots sind bei Fertigungsunternehmen im Gegensatz zu vollautomatischen Produktionslinien sehr gefragt, da sie den zusätzlichen Vorteil eines flexiblen Betriebs bieten. Eine große Herausforderung bei den derzeitigen kollaborativen Systemen sind die langwierigen Setup-Zeiten für eine effiziente und robuste Mensch-Roboter Kollaboration sowie die schlechte Unterstützung für zufällige Unterbrechungen.
Dieses Projekt zielt darauf ab, autonome kollaborative Prozessschritte für serielle Manipulatoren zu ermöglichen, bei denen Unterbrechungen durch menschliches Eingreifen auftreten können. Zu diesem Ziel werden zwei Hauptaspekte behandelt, die die Ausführung von Aufgaben beeinflussen, nämlich die Ausführungszeit und die Kollaboration:
1. Eine Methode zur Minimierung der zurückgelegten Gesamtstrecke wird entwickelt, in der die für die jeweilige Aufgabe optimale Sequenz von Prozessschritten unter Beibehaltung der Online-Betriebsfähigkeiten eingehalten wird.
2. Ein Echtzeit-Algorithmus wird entwickelt und implementiert, der die Mersch-Roboter Kollaboration in Umgebungen mit zufälligen Unterbrechungen ermöglicht. Das Ziel ist den Betrieb auch dann aufrechtzuerhalten und die Sicherheit der menschlichen Mitarbeiter zu gewährleisten, wenn Bereiche des Arbeitsraums verdeckt sind.
Ein Beispiel für den Einsatz auf einer Prototyp-Plattform, bestehend aus einem kollaborativen UR10e-Arm, einer Stereokamera zur statischen Umgebungserfassung und einem Laserscanner zur Erfassung von dynamischen Hindernissen, wird im Video gezeigt.
Ansprechpartner: Daniel Gossen
Musik: madiRFAN – Both of Us (https://pixabay.com/music/beats-madirfan-both-of-us-14037/)
Das Video auf unserem Kanal: hier.
Lösungen der Praktischen Übungen in Robotic Systems
Auch in diesem Jahr haben uns wieder kreative Lösungen für Problemstellungen aus dem Modul Robotic Systems erreicht. Die Studierenden konnten erste Erfahrungen bei der Programmierung eines Fanuc Roboters in Roboguide sammeln. Eine Umfangreiche Programmieraufgabe galt es weiterhin an der Fanuc Education Cell zu lösen. Auf Grund der Einschränkungen der Präsenzveranstaltungen mussten alle Lösungen virtuell in Roboguide gelöst werden. Im nächsten Winter wird dann wieder am realen Roboter erprobt.
Ansprechpartner:
IGMR Seminar 08.02.2021 14:30 Uhr: Dr. Stefan Kurtenbach, Trapo AG
Wir begrüßen Dr. Stefan Kurtenbach von der Trapo AG zum IGMR Seminar. Auch diese Veranstaltung wird weiterhin virtuell durchgeführt:
Der Vortrag von Dr. Kurtenbach wird einen Eindruck der aktuellen Entwicklungen und Produkte von der Trapo AG geben.
Trapo Research and Development: Mobile Robotics
Montag, 08. Februar 2021 14:30 Uhr
Zoom Meeting Informationen:
https://rwth.zoom.us/j/98454895570?pwd=NkpiSWkyaTJtdWlralJrSUtnMDdDZz09
Meeting-ID: 984 5489 5570
Kenncode: 186393
Die Datenschutzhinweise zur Nutzung von Zoom und eine Handreichung für Teilnehmer (Studierende) können von den Seiten des CLS der RWTH Aachen University heruntergeladen werden.
Die Veranstaltungen im Wintersemester 2020/2021 werden in Zusammenarbeit mit dem VDI-GPP-Arbeitskreis des Bezirksvereins Aachen durchgeführt.
Weitere Informationen zum Thema können den folgenden Blogeinträgen entnommen werden:
Industrieprojekt Trapo Loading System
Ansprechpartner:



