Kategorien
Seiten
-

Forschungsdaten – Aktuelles und Wissenswertes

pSTAIX – eine prozessorientierte Unterstützung des Forschungsdatenmanagements

16. November 2017 | von

Quelle: Pixabay

IT-Service Provider an Hochschulen, wie das IT Center, sind mit stetig zunehmenden Anforderungen an neue und bestehende IT-Systeme und Wünschen nach fachspezifischen IT-Lösungen zur individuellen Prozessunterstützung konfrontiert. An der RWTH Aachen University wurde daher eine Referenzarchitektur entwickelt, mit deren Hilfe Dienste u.a. zur Unterstützung des Forschungsdatenmanagements aufgebaut werden können.

Im Rahmen des FDM-Projektes wird es als wichtig erachtet, Dienste so zur Verfügung zu stellen, dass diese einen direkten Mehrwert für Nutzende liefern, aber auch flexibel genug sind, um zukünftig auf geänderte Anforderungen reagieren zu können. Hier hilft pSTAIX weiter. pSTAIX steht für „Process Oriented Software Tiers for Application Interfaces and EXtensions“ und stellt eine Referenz-SOA (Service Orientierte Architektur) dar, in der system- und technologieabhängige Schnittstellen zu prozessorientierten Schnittstellen gewandelt werden. Verwendet werden dazu „Tiers“ (also Ebenen), um schrittweise technologie- und prozessabhängige Aspekte voneinander zu trennen. Die Organisation der Schnittstellen in diesen Tiers erlaubt es den Betreibenden, die Implementierung einzelner Dienste auszutauschen, ohne alle bestehenden Anwendungen anzupassen.

Zugleich ist pSTAIX eine Art Anleitung dafür, wie Softwareentwicklungs- und IT-Betriebs-Teams strukturiert werden können, um die Implementierung und den Betrieb eines prozessorientierten Services zu ermöglichen: ein Team ist für die Bereitstellung einer definierten Schnittstellenstruktur verantwortlich und kann sich auf die Entwicklung und Umsetzung in seinem jeweiligen Verantwortungsbereich konzentrieren.

Diese Referenzarchitektur fand an der RWTH Aachen University bei der Entwicklung des Dienstes simpleArchive Verwendung. Hier wurden verschiedene, bereits bestehende IT-Dienste pSTAIX-konform miteinander kombiniert. Die so entstandene Anwendung, aber auch die prozessorientieren Schnittstellen stehen jetzt für Einrichtungen der RWTH Aachen zur Verfügung und können somit in Prozesse und Apps integriert werden.

Das FDM-Team berät Sie gerne dazu, wie Sie die Dienste des IT Centers für Forschungsprozesse in Ihrer Einrichtung nutzen können.

Das UNEKE-Projekt im Interview

08. November 2017 | von

Frage: Guten Tag Herr Brenger, sie arbeiten für das IT Center der RWTH Aachen im UNEKE-Projekt zum Forschungsdatenmanagement. Das ist ja zunächst ein recht kryptischer Namen, unter dem man sich vielleicht spontan nichts vorstellen kann. Können Sie uns erklären, wie genau die Architektur des Projektes aussieht und, vor allem, womit es sich befasst?

Bela Brenger: Aber natürlich, sehr gern. UNEKE.  Die Abkürzung UNEKE steht für „Vom USB-Stick zur NFDI – Entwicklung eines Kriterien geleiteten Entscheidungsmodells für den Aufbau von Forschungsdateninfrastrukturen“ und ist ein vom Bundesministerium für Bildung und Forschung (BMBF) gefördertes Projekt zum Forschungsdatenmanagement. UNEKE adressiert die für Hochschulen zentrale strategische Fragestellung, ob auf dem Weg zur Nationalen Forschungsdateninfrastruktur (NFDI) für die Speicherung von Forschungsdaten lokale Speicherstrukturen nötig sind oder bestehende externe Angebote genutzt werden können. Hier entwickelt UNEKE einen Kriterienkatalog, der eingebettet in eine Roadmap als Entscheidungsgrundlage für Hochschulen dienen soll.

Das Projekt ist im Juni dieses Jahres in Kooperation mit der Universitätsbibliothek Duisburg-Essen und der Abteilung für Informatik und angewandte Kognitionswissenschaft der Universität Duisburg-Essen gestartet. Universitätsbibliothek und IT Center gelten als die wesentlichen Akteure im Bereich der Verwaltung und Speicherung von Forschungsdaten. Von ihnen werden im Rahmen von UNEKE die Anforderungen an Infrastrukturen zur Speicherung von Forschungsdaten ermittelt und evaluiert.

Frage: Ah, das ist interessant. Gerade dem Forschungsdatenmanagement widmen sich an der RWTH Aachen University ja unterschiedliche Einrichtungen, sodass ihr Projekt hier sicher gut aufgehoben ist.

Ich habe gelesen, dass seit Oktober bereits Workshops im UNEKE-Projekt stattfinden. Was haben diese Workshops zum Ziel?

Bela Brenger: Grundlegend sollen die Workshops helfen, die Anforderungen verschiedener Forschungsdisziplinen und -kulturen differenziert abbilden zu können. Daher richten sie sich auch explizit an Forschende unterschiedlicher Fachrichtungen, wie der Naturwissenschaften und der Medizin, aber ebenso der Geistes- und Sozialwissenschaften und der Ingenieurwissenschaften.

Frage: Wie muss man sich das vorstellen? Was genau passiert in diesen Workshops?

Bela Brenger: Die Workshops sind in zwei Phasen unterteilt. In der ersten Phase können die Teilnehmenden in einer offenen Form die von ihnen wahrgenommenen Anforderungen und Herausforderungen beim Umgang mit Forschungsdaten artikulieren. Diese Antworten werden zunächst deskriptiv festgehalten.

Ausgehend von diesen Antworten werden in der zweiten Phase mit den Teilnehmenden gezielte, das heißt vorstrukturierte Interviews geführt. Diese Interviews werden nach dem Workshop transkribiert und analysiert. Das heißt, die Antworten werden auf Gemeinsamkeiten und Differenzen und mit Blick auf den Kontext der wissenschaftlichen Disziplinen untersucht, sodass die rein deskriptive Ebene verlassen und die Ebene wissenschaftlicher Forschung betreten wird.

Frage: Das klingt vielversprechend und greift den in der empirischen Sozialforschung etablierten Mixed-Methods-Ansatz auf.

Wie lief es denn bisher?

Bela Brenger: Die ersten Workshops liefen ganz gut. Die Teilnehmenden waren sehr engagiert.

Frage: Die Frage ist vielleicht zu früh, aber dennoch: Lassen sich schon einige Ergebnisse in ihren Konturen am Horizont wahrnehmen?

Bela Brenger: Hmm, die Antwort fällt hier momentan gerade noch schwer. Grundlegend ist die Frage, ob sich Erkenntnisse für die eine Fachdisziplin auf die anderen übertragen lassen. Weil sich die Gegenstandsbereiche der jeweiligen Forschung unterscheiden, kristallisiert sich heraus, dass in der einen Wissenschaft eher Anforderungen an die technische Infrastruktur, in der anderen eher Anforderungen an Datenschutz im Fokus der Forschenden stehen. Darauf muss das Forschungsdatenmanagement kontextsensible reagieren.

Frage: Wie geht es nach den Workshops weiter?

Bela Brenger: Die Workshops stecken zunächst einen qualitativen Rahmen ab, innerhalb dessen es möglich sein wird zu beantworten, auf welche technische Infrastruktur bereits zurückgegriffen werden kann, um Forschungsdaten zu managen. Zugleich sollen aber auch Potentiale eruiert werden. Durch eine größere Umfrage soll dieser Rahmen dann quantitativ gefüllt werden. Es wird sich zeigen, ob die Workshops einen guten Rahmen zur Bedarfserhebung und Analyse eines größeren Kontexts liefern.

Frage: Dann noch viel Erfolg im Projekt und danke für das Interview.

Bela Brenger: Sehr gerne!

 

Das Interview führte Markus Baum.

Rosetta

02. November 2017 | von

Quelle: Unsplash

Die Software

Rosetta ist eine Software der Firma ExLibris für die Langzeitarchivierung von Daten. Das bedeutet vor allem, dass sie neben den Standardfunktionen eines Archiv-Systems („bitstream-preservation“, regelmäßige Integritätstests, Reduplizierung, …) eine Format-Validierung bietet. Beim Ingest der Daten wird das Dateiformat genau bestimmt und dokumentiert. Dieses wird dann regelmäßig gegen eine zentral gepflegte Datenbank geprüft, die an die PRONOM-Datenbank angelehnt ist und Informationen über die Gültigkeit eines Formats enthält. Bei Bedarf können fehlende Formate auch lokal in Rosetta ergänzt werden. Wird bekannt oder absehbar, dass ein Dateiformat nicht mehr lesbar ist, warnt Rosetta den Besitzer/die Besitzerin der fraglichen Daten, der/die dann die Transformation in ein anderes Format anstoßen kann.

Das Projekt

Das Hochschulbibliothekszentrum NRW (hbz) mit Sitz in Köln ist ein zentraler Dienstleister für die Universitätsbibliotheken des Landes. Das hbz hat die Software Rosetta für Nordrhein-Westfalen lizensiert und betreibt eine zentrale Instanz.

In der Pilotphase gibt es drei Partner, mit denen unterschiedliche Use Cases getestet werden. Während der Fall der Universitäts- und Stadtbibliothek Köln (USB) den „klassischen“ Anwendungsfall darstellt, soll in den Use Cases der Universitäten Köln und Aachen die Eignung des Systems für Forschungsdaten getestet werden.

Der Aachener Use Case

Im Aachener Use Case geht es um die Archivierung von großen Daten aus Simulationen zu kleinskaligen Turbulenzen. Auf Aachener Seite arbeiten in diesem Projekt das IT Center, die Universitätsbibliothek und als Datenlieferant das Institut für Technische Verbrennung (Prof. Pitsch) zusammen. Die Simulationen haben die Form von Kuben mit unterschiedlich großer Auflösung. Diese liegen als HDF5-Dateien mit einer Größe von 609 GB bis zu 7 TB vor. Da sie für den Austausch über das Netz und die Nachnutzung außerhalb von HPC-Systemen nicht handhabbar sind, werden die Kuben zusätzlich in Teile zerlegt, die eine minimale Größe von 1 GB haben. Im Nachnutzungsszenario können Forschende dann einen einzelnen Ausschnitt und bestimmte Zeitschritte anfordern.

Die Herausforderungen bestehen zum einen in der Konfiguration der Software für den eigenen Use Case, die die einliefernden Einrichtungen selbst vornehmen. Zum anderen ist das automatische Erstellen von Metadaten für die vielen Teildateien ein interessanter Testfall. Aufgrund der Größe der Daten ist aber auch deren Transfer nicht ganz einfach.

Tests mit einzelnen Dateien auf der Testinstanz des hbz waren bereits erfolgreich. Derzeit wird das Produktivsystem vorbereitet, auf dem dann im nächsten Schritt die automatisierte Verarbeitung von größeren Datenmengen getestet wird.

Objekt-Speicher für das Gemeinschaftslabor für Elektronenmikroskopie (GFE)

23. Oktober 2017 | von

Quelle: Pixabay

Objekt-Speicher sind eine relativ neue Art von Speichersystemen. Hier existieren keine konventionellen Dateisysteme, sondern jede Datei wird als individuell identifizierbares Objekt gespeichert und verwendet. Aus diesem Unterschied resultieren einige Besonderheiten, die Objekt-Speicher als besonders geeignet für Forschungsdatenmanagement (FDM) erscheinen lassen. So sind alle am Markt verfügbaren Systeme in Geschwindigkeit und Kapazität im laufenden Betrieb erweiterbar. Außerdem erlaubt die Technik sogenannte geoverteilte Redundanz, also eine Absicherung der Services und vor allem der gespeicherten Daten auch gegen den Ausfall eines Standortes. Mit konventioneller Technik könnte dies nur mit einer kompletten Verdoppelung des Speichervolumens und einer Datenspiegelung erreicht werden.

In den letzten Monaten hat das IT Center auf seiner Serverhosting-Infrastruktur eine Testumgebung eines Objekt-Speichers aufgebaut und funktionale Tests durchgeführt. Diese sind erfolgreich verlaufen, so dass das IT Center nun aus Eigenmitteln eine Pilot-Infrastruktur in der Größenordnung von 100 TB realisiert, um hiermit die Umsetzung von FDM weiter voranzutreiben.

Zu den ersten Pilot-Nutzern wird das Gemeinschaftslabor für Elektronenmikroskopie (GFE) gehören.

Moderne Elektronenmikroskope erzeugen aufgrund der neuen Generation schneller Detektoren in Kombination mit neuen analytischen Verfahren hohe Datenmengen. So wird z.B. an jedem Bildpunkt nicht nur eine Intensität, sondern ein kompletter Datensatz aus Beugungsintensitäten und spektroskopischen Daten hinterlegt, wodurch multidimensionale Datensätze mit hohen Anforderungen an die Speicherkapazität entstehen.

Diese erzeugten Daten und die beschreibenden Metadaten sind prototypisch für idealerweise in Objekt-Speichern ablegbare Daten. Die durch diese Kooperation gemachten Erfahrungen auf Nutzer- und Betreiberseite werden wertvolle Erkenntnisse für den weiteren Auf- und Ausbau dieser Infrastruktur liefern sowie die funktionalen Anforderungen der Nutzer an den Objekt-Speicher noch genauer spezifizieren.

Durch die partnerschaftliche Zusammenarbeit zwischen dem GFE und dem IT Center innerhalb dieses Pilotbetriebes wird auf die speziellen Bedarfe der Nutzer im Bereich FDM eingegangen, so dass das IT Center entsprechende angepasste Services anbieten kann.

Zeitstempel für Forschungsdaten

19. Oktober 2017 | von

Quelle: Pixabay

In Forschungsprozessen entstehen oftmals verschiedene Versionen eines Datensatzes. Der Umgang mit diesen Versionen ist ein Kernelement des Forschungsdatenmanagements. Manchmal ist es wichtig, den genauen Zeitpunkt der Entstehung eines Datensatzes nachweisen zu können – etwa im Zusammenhang mit dem Nachweis des Entstehungszeitpunkts von Erfindungen, Entwicklungen und Werken im Rahmen des Gewerblichen Rechtsschutzes und des Urheberrechts. Zu diesem Zweck werden Zeitstempel eingesetzt. Ein Zeitstempel ist laut Bundesamt für Sicherheit in der Informationstechnik die Bescheinigung einer vertrauensvollen Instanz, dass spezifische Daten zu einer bestimmten Zeit vorlagen (Quelle).

Die RWTH Aachen nutzt beim Einsatz von Zeitstempeln den Public Key Infrastruktur-Dienst des Deutschen Forschungsnetzes e.V., kurz DFN-PKI. Dieser Dienst ermöglicht es, Forschungsdaten an einen vom DFN betriebenen Server zu senden. Dieser ruft die aktuelle Zeit durch die Kommunikation mit einer Funkuhr ab und identifiziert die Version der empfangenen Daten mit der abgerufenen Zeit. Anschließend sendet er die eingangs empfangenen Daten mit einer entsprechenden Signatur, dem so genannten Zeitstempel, zurück. Der DFN-Zeitstempeldienst kann im Rahmen der DFN-Satzung für nicht gewerbliche Zwecke verwendet werden.

Um das Forschungsdatenmanagement an der RWTH Aachen weiter durch innovative Lösungen zu begleiten, bietet das IT Center der RWTH Aachen einen Dienst an, der es ermöglicht, eine Datei über eine Webseite mit einem zertifizierten DFN-PKI-Zeitstempel auszustatten. Der noch im Pilotbetrieb befindliche Zeitstempeldienst ist hier zu finden (http://zeitstempel.dfn.de).

Weitere Informationen zum Dienst sind im Dokumentationsportal des IT Centers zu finden und auf der Seite des Deutschen Forschungsnetzes.

 

Der Sinn von Forschungsdatenmanagement

17. Oktober 2017 | von

Quelle: Pixabay

Forschungsdatenmanagement umfasst alle Methoden und Verfahren, die Forschende nutzen können, um Forschungsdaten langfristig zu sichern, zu nutzen und um sicherzustellen, dass keine wertvollen Daten verloren gehen. Forschungsdatenmanagement erlaubt es, wissenschaftliches Arbeiten nachvollziehbar zu dokumentieren und Daten über die eigentliche Projektlaufzeit für weitere Vorhaben nutzbar zu machen. Gut archivierte Daten ermöglichen einen effizienten Zugriff auch unter veränderten Fragestellungen und führen zu neuen Projekten und Synergieeffekten. Auch Dritte haben durch Forschungsdatenmanagement die Möglichkeit, Forschungsleistungen wahrzunehmen und zwecks Kooperationen mit anderen Forschenden in Kontakt zu treten. Den Anforderungen öffentlicher, fördermittelvergebender Institutionen kommt das Forschungsdatenmanagement entgegen. Bei Anträgen für die Deutsche Forschungsgemeinschaft beispielsweise ist ein Datenmanagementplan mittlerweile unverzichtbar. Denn zunehmend erwarten Förderträger/innen, dass Forschungsdaten frei zur Verfügung gestellt werden und langfristig nutzbar sind.

Die RWTH Aachen widmet sich daher intensiv allen Fragen und Prozessen zum Forschungsdatenmanagement und möchte Sie dabei unterstützen. Wir beantworten gerne Ihre Fragen und helfen Ihnen bei der Entwicklung fachspezifischer Lösungen. Näheres erfahren Sie auf der Webseite des Forschungsdatenmanagements.

 

Workshop zur Nutzung elektronischer Laborbücher

13. Oktober 2017 | von

Quelle: Pixabay

Die gute wissenschaftliche Praxis erfordert die nachvollziehbare Dokumentation von Forschungsergebnissen. Planung, Durchführung und Auswertung wissenschaftlicher Experimente werden üblicherweise in sogenannten Laborbüchern dokumentiert. Elektronische Laborbücher (ELN) besitzen das Potential, Forschende bei der z.T. aufwändigen Dokumentationsarbeit zu unterstützen und Laborprozesse zu optimieren. Im Rahmen des Forschungsdatenmanagements stellen ELN mit der Digitalisierung von Forschungsprozessen und Dokumentationen eine wichtige Schnittstelle dar, um langfristig verfügbare, digital auswertbare Forschungsdaten zu generieren und der wissenschaftlichen Community zur Verfügung zu stellen sowie die überregionale und internationale Kooperation zu stärken.

Jedoch bergen neue Potentiale auch Herausforderungen. Momentan existieren unterschiedliche, den jeweiligen Bedürfnissen der Forschungsgemeinschaft angepasste ELN-Modelle. Das IT Center bietet daher am 20.11.2017 einen Workshop an, um sich mit verschiedenen Lösungen vertraut zu machen und zu prüfen, welche Lösung zu den eigenen Ansprüchen passt. Neben Live-Demos verschiedener Systeme und Fachvorträgen wird es die Möglichkeit zu einem lösungsorientierten Austausch mit Anwendenden und Entwickelnden geben.

Alle weiteren Informationen und die Möglichkeit, sich bis zum 12.11.2017 anzumelden, finden Sie auf der Webseite der Digitalen Hochschule NRW.

Persistent Identifier – eine dauerhafte Identifikation der eigenen Forschungsergebnisse

10. Oktober 2017 | von

Quelle: Pixabay

Wissenschaftliche Ergebnisse sind das Resultat einer oftmals langen, teils kooperativ organisierten, Forschungstätigkeit. Ein Ziel guter wissenschaftlicher Praxis ist es, Forschungsdaten langfristig und dauerhaft zu sichern und bei Bedarf wieder bereitstellen zu können. Um diese Ziele zu erreichen, können sogenannten Persistent Identifier (PID) eingesetzt werden. Ein PID ermöglicht es, den Speicherort der Daten, die zu den Daten zugehörige Forschungseinrichtung und ggf. weitere Kontextinformationen, wie die Forschenden, die die Daten generiert haben, eindeutig zu identifizieren. Über den PID können Forschende auch nach ihrem Ausscheiden aus den Einrichtungen Forschungsdaten referenzieren und so auf ihre wissenschaftlichen Ergebnisse verweisen. Ebenfalls ist es möglich, den Speicherort von Daten zu aktualisieren, ohne dass der PID sich ändert. Ein klassisches Beispiel für einen PID ist der Digital Object Identifier (DOI), der insbesondere für Online-Artikel wissenschaftlicher Fachzeitschriften und für die Publikation von Forschungsdaten verwendet wird.

Die Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen (GWDG) bietet einen Service für die Verwendung von PIDs an, den die RWTH Aachen nutzt, um Forschenden die Sicherung und erneute Bereitstellung ihrer Daten zu erleichtern. Dieser kooperativ erbrachte Service bietet neben der Möglichkeit, PIDs zu erstellen, eine IT-Infrastruktur, die die dauerhafte Auflösung von PIDs gewährleistet.

Zugleich greift die RWTH Aachen bei der Unterstützung im Umgang mit PIDs auf bereits bestehende Dienste des IT Centers und der Universitätsbibliothek zurück. Beispielsweise können durch den Einsatz von PIDs die über das Backup-Portal gesicherten Daten problemlos eindeutig referenziert und mit einer zugehörigen Publikation in RWTH Publications verknüpft werden. Die RWTH Aachen stellt zudem einfach zu nutzende Web-basierte Tools bereit, die beim Erzeugen und Editieren von PIDs unterstützen. Informationen zum PID-Service finden Sie in der Dokumentation. Zudem beraten wir Sie gerne bei Ihrem Vorhaben, PID-Services in die Forschungspraxis zu integrieren. Kontaktieren Sie uns einfach über das IT-ServiceDesk.

Gewusst wie: professioneller Umgang mit Forschungsdaten

04. Oktober 2017 | von

Quelle: Pixabay

Die Generierung, Sicherung und Bereitstellung von Forschungsergebnissen sind integraler Bestandteil des wissenschaftlichen Arbeitens. Die digitale Revolution ermöglicht es auf neuen Wegen, Forschungsdaten effektiv und effizient zu verarbeiten und der wissenschaftlichen Community zur Verfügung zu stellen.

Die RWTH Aachen University unterstützt ihre Angestellten aus Forschung sowie aus Technik und Verwaltung beim Begehen dieser neuen Wege durch Infrastrukturangebote ebenso wie durch ein umfassendes Beratungs- und Schulungsangebot. Das Spektrum reicht von einer allgemeinen Einführung in die Thematik über das Erstellen von Datenmanagementplänen bis hin zur Vertiefung spezifischer Themen wie der Archivierung und Publikation von Forschungsdaten. Die Kurse bieten Ansätze, das persönliche Datenmanagement oder die datenbezogene Zusammenarbeit in der Gruppe zu optimieren sowie Forschungsdaten im Sinne der guten wissenschaftlichen Praxis nachhaltig zu sichern oder zur Nachnutzung bereitzustellen. Die Angebote sind in deutscher und teilweise auch in englischer Sprache verfügbar.

Weitere Informationen finden Sie auf der Seite zum Forschungsdatenmanagement und in der Veranstaltungsdatenbank zur Personalentwicklung der RWTH Aachen University. Individuelle Beratungs- oder Schulungstermine für Institute oder Arbeitsgruppen können gerne über das IT-ServiceDesk vereinbart werden.

 

Neue Herausforderungen bedürfen neuer Fachleute: DataScienceMATSE

26. September 2017 | von

Die Digitalisierung der Arbeitswelt, die sich in den Begriffen der Industrie 4.0 und des Internets der Dinge ausdrückt, führt dazu, dass große Mengen an digitalen Daten produziert, abgelegt und weiterverwendet werden. Große heterogene, nicht vorstrukturierte und bisweilen lückenhafte Datenmengen, die von Menschen ohne Hilfsmittel der Softwaretechnik nicht mehr zu bearbeiten sind, werden als Big Data bezeichnet.

Quelle: Pixabay

Auch Forschungsdaten sind sehr heterogen, liegen oftmals in großer Menge vor, sind an unterschiedlichen Orten abgelegt und können daher als Big Data begriffen werden. Unter Forschungsdaten versteht man die Gesamtmenge aller im Rahmen von Forschungsarbeiten anfallenden Daten in verschiedenen Arten und Formaten. Umfrageergebnisse, entwickelte Computermodelle oder Software zählen in dieser weitreichenden Definition genauso zu den Forschungsdaten wie die Messwerte aus Experimenten.

Eine große Herausforderung stellt der nachhaltige und strukturierte Umgang mit diesen Daten dar, der entsprechend der guten wissenschaftlichen Praxis eine langfristige und nachhaltige Archivierung ermöglicht und ggf. eine effektive und effiziente Nachnutzung der Daten erlaubt. Auch zur Umsetzung und Anwendung von Big Data Technologien auf Forschungsdaten werden hochqualifizierte Fachleute benötigt.

Die RWTH Aachen University widmet sich diesen Herausforderungen unter anderem durch die Spezialisierung des/der Mathematisch-technischen Softwareentwicklers/in (MATSE) zum/r DataScienceMATSE. Im Rahmen der Ausbildung lernen die zukünftigen DataScienceMATSE die Erfassung, Aufbereitung, Verarbeitung, Darstellung und Interpretation sehr großer Datenmengen. Zudem werden sie im Umgang mit spezifischer Auswertungssoftware geschult und erlangen entsprechende Programmierkenntnisse sowie adäquates mathematisches und statistisches Fachwissen.

Weitere Informationen zum Thema finden Sie auf den entsprechenden Webseiten des IT Centers.