Kategorien
Seiten
-

IT Center

Kategorie: ‘Administrierende’

Zur Benutzerfreundlichkeit beitragen und gleichzeitig Amazon-Gutschein sichern

13. April 2018 | von

Die Nutzerfreundlichkeit und Weiterentwicklung unserer IT Dienste sind zwei Punkte, an denen wir mithilfe von Nutzertests stetig arbeiten. Diese führen wir in regelmäßigen Abständen durch, um unsere angebotenen Dienste auf Schwachstellen zu überprüfen und sie zu verbessern.

Deshalb möchten wir Sie dazu einladen, als Teilnehmer eines solchen Nutzertests bei der Weiterentwicklung des IT Center-Angebots mitzuwirken. Als Dankeschön für Ihre Mitarbeit und den damit verbundenen Zeitaufwand erhalten Sie einen 10 € Amazon-Gutschein.

Wer kann am Nutzertest teilnehmen?

Die Tests führen wir sowohl mit Studierenden und Mitarbeitenden als auch mit anderen Interessierten durch. Darüber hinaus sind auch Menschen mit Beeinträchtigung herzlich eingeladen, an unserem Nutzertest teilzuhaben. Mit ihrer Hilfe können wir unsere Dienste auf Barrierefreiheit überprüfen.

Worauf kommt es beim Nutzertest an?

Weiterlesen »

Wartung des Identity Management Systems erfolgreich abgeschlossen

31. Januar 2018 | von

Letzte Woche konnten die umfangreichen Wartungsarbeiten an der Benutzerverwaltung der RWTH Aachen University, dem Identity Management System (IdM), erfolgreich abgeschlossen werden.

Was wurde gemacht?

Im Zuge der Wartung wurde der Import der Studierendendaten auf RWTHOnline umgestellt, d.h. dass die Daten der Studierenden nun nicht mehr aus dem alten System in das  IdentityManagement, sondern direkt aus RWTHonline.

Update: Die Vorbereitung für den Import der Studierendendaten konnten, wie gestern veröffentlicht, erfolgreich abgeschlossen werden. Aktuell wird das neue Verfahren in Betrieb genommen. Weitere Informationen zum aktuellen Stand finden Sie auf unserer Störungsmeldungsseite.

Diese Umstellung hatte zur Folge, dass auch alle Systeme die Daten aus dem IdM konsumieren neu synchronisiert werden mussten.

Eine weitere wichtige Änderung wurde für Mitarbeitende des Uniklinikums umgesetzt. Es wurde ein neues ConnectMe-Verfahren eingerichtet und in Betrieb genommen. Mitarbeitende aus dem Klinikum müssen ab dem 01.02.2018 einen ConnectMe-Coupon aus diesem System einlösen, um in das IdM der RWTH Aachen zu gelangen und um RWTHonline zu nutzen. Nähere Informationen erhalten Mitarbeitende des Uniklinikums über die IT des Klinikums.

Seit dem 29.01.2018 ist das alte Verfahren deaktiviert und Coupons können nicht mehr eingelöst werden.

Wichtig: Mitarbeitende des Uniklinikums müssen sich auf jeden Fall über das neue Verfahren freischalten, auch wenn Sie bereits in der Benutzerverwaltung der RWTH Aachen University waren, damit auch in Zukunft die Rechte bestehen bleiben.

 

Object Storage – eine intelligente Form der Datenspeicherung

12. Dezember 2017 | von

Im wissenschaftlichen Alltag fallen in vielerlei Art Daten an. Die Organisation der Daten ist für viele Wissenschaftler/innen die Grundlage, die Nachvollziehbarkeit und Reproduktion Ihrer Ergebnisse zu gewährleisten. Einen großen Anteil an dieser Organisation hat an der RWTH Aachen die digitale Dokumentation von Daten auf einem der vielen unterschiedlichen, Use Case-angepassten Speichersysteme. Technisch unterscheidet man in der Betrachtung von IT-Infrastrukturen drei Speicherarchitekturen:

1) Die erste und für viele Menschen leichter zugängliche und vertraute Art ist das Datei-System (engl. „file system“), welches Dateien in hierarchischen Strukturen abbildet.

2) Datenblöcke (engl. Block storage) bietet im Gegensatz dazu eine Art der „blockweisen“ Speicherung von Daten, die eher technisch motiviert ist, um u.a. den Datenzugriff zu optimieren und den Datenfluss zu erhöhen.

3) Aufbauend auf den ersten Konzepten von Garth Gibson hat 1996 eine Forschergruppe an der Carnegie Mellon University den ersten Ansatz einer dritten Variante umgesetzt, die die Flexibilisierung von Daten in Form von Daten-Containern vorsah, um Schreib- und Lese-Zugriffe stärker zu abstrahieren. Howard Gobioff hat in einem weiteren Schritt durch die Zugriffskontrollen-Erweiterung (Access Level) die Grundlage für die spätere Entwicklung von Object Storage geschaffen.

Eines der gestalterischen Grundprinzipien von Object-Storage ist eine Schicht zur Abgrenzung der Daten von Ihren IT-Administratoren/innen und von Applikationen (Anwendungen). Folglich werden Daten als Objekte betrachtet anstatt als Datei oder in Blöcken. Objekte beinhalten zur Einhaltung dieser Prinzipien zusätzlich beschreibende Merkmale (sogenannte Metadaten), die zur Indizierung und Verwaltung genutzt werden können.

Das IT Center will als zentraler Dienstleister dieses Konzept mit Anwendungsfällen in einem Pilotbetrieb für die RWTH Aachen nutzbar machen. Die Handhabung und der Betrieb sollen dabei wirtschaftlich und leichtzugänglich für Ihre Einrichtungen und Partner/innen gestaltet werden. Deshalb hat sich aus den Infrastruktur-Verantwortlichen an der RWTH aus unterschiedlichen Kompetenzbereichen eine Projektgruppe gebildet, die eine schnelle, kosteneffieziente Bereitstellung einer solchen „Cloud“-Storage-Alternative ermöglichen soll.

Aktuell betreibt das IT Center OpenStack im Pilotbetrieb, um mit Hilfe von Automatisierungstools wie Puppet mehrere Szenarien einer Erstimplementierung von Objekt Storage an der RWTH zu simulieren. Die Evaluierung dieser Technologien und der Aufbau der Erstimplementierung geschieht in enger Zusammenarbeit mit Partnern des IT Center an den Universitäten in Duisburg-Essen und Dortmund, wo vergleichbare Installationen in Arbeit sind.

Die rasante Entwicklung im Storage-Bereich in den letzten 5 Jahren hat mit dazu beigetragen, dass Hardware Hersteller/innen und Software-Entwickler/innen in diesem Jahr die „cloudifizierung“ ausgerufen haben. Dafür erhalten sie Unterstützung von der unternehmensberatenden Industrie. Das IT Center ist sich daher sicher, dass die Schritte in diesem Jahr maßgeblich zur Weiterentwicklung der IT-Lösungen an der RWTH beitragen kann.

Weitere Information zu diesem Themenfeld sind unter folgenden Links zu finden:

OpenSource Object Storage Software – ceph

http://ceph.com/https://youtu.be/QBkH1g4DuKE

IT Trends 2017 – Capgemini

https://www.capgemini.com/de-de/wp-content/uploads/sites/5/2017/02/it-trends-studie-2017.pdf

Ten IT-enabled business trends for the decade ahead – mckinsey

https://www.mckinsey.com/industries/high-tech/our-insights/ten-it-enabled-business-trends-for-the-decade-ahead

Gartner’s Top 10 Strategic Technology Trends for 2017 – Gartner

https://www.gartner.com/smarterwithgartner/gartners-top-10-technology-trends-2017/

BCG Technology Advantage, October 2017 – BCG

https://www.bcg.com/publications/collections/technology-advantage-october-2017.aspx

Wikipedia

https://en.wikipedia.org/wiki/Object_storage

searchstorage

http://www.searchstorage.de/sonderbeitrag/Object-Storage-etabliert-sich-neben-traditionellem-Block-und-File

Glen K. Lockwood – HPC Perfomance Analyst

http://www.glennklockwood.com/

http://www.glennklockwood.com/data-intensive/storage/object-storage.html

OpenSource Object Storage Projekte

Ceph

http://ceph.com/

Multi-Cloud Object Storage

https://minio.io/

basho – RIAK S2

http://basho.com/products/riak-s2/

Die Aachener Beiträge zum DINI-Workshop

08. Dezember 2017 | von

Wie hier bereits angekündigt, fand am 27. und 28. November der 8. DINI/nestor-Workshop der Deutschen Initiative für Netzwerkinformation e. V. (DINI) in Stuttgart statt, bei dem das IT Center mit Beiträgen vertreten war.

Zusammen mit Ania López (UB Duisburg-Essen), Stephanie Rehwald (UB Duisburg-Essen), Stefan Stieglitz und Konstantin Wilms (Universität Duisburg-Essen, Abteilung für Informatik und Angewandte Kognitionswissenschaft) stellt Bela Brenger (IT Center, RWTH Aachen University) das UNEKE-Projekt sowie eine erste Version des Kriterienkatalogs zur Auswahl von Speicherlösungen auf Grundlage der in Interviews und Workshops erhobenen Bedarfe der Wissenschaftler/innen vor. Das Projekt reagiert auf die Forderung des Rates für Informationsinfrastrukturen, langfristig eine Nationale Forschungsdateninfrastruktur (NFDI) zu etablieren, die flächendeckend die Grundversorgung mit FDM-Speicherinfrastrukturen und -Services sicherstellt. Bisher bestehen neben gut ausgebauten Infrastrukturen einzelner Fach-Communities eine Vielzahl von Insellösungen an den Hochschulen für die Vorhaltung von Forschungsdaten. Interoperabilität sowie Migrierbarkeit sind zentrale Anforderungen beim Auf- und Ausbau institutioneller Speicherkonzepte, um die Anschlussfähigkeit an möglicherweise entstehende fachspezifische oder nationale Lösun­gen zu sichern.

Damit stehen Hochschulen bei der Implementierung ihrer Forschungsdateninfrastruktur vor der Entscheidung, ob auf dem Weg zur NFDI für die Speicherung von Forschungsdaten lokale Speicherstrukturen und Repositorien nötig sind oder bestehende externe Angebote genutzt werden können. Hierfür fehlen bisher objektive Kriterien. Das BMBF-geförderte Kooperationsprojekt UNEKE der Universität Duisburg-Essen und der RWTH Aachen entwickelt und evaluiert diese Kriterien und bettet diese in eine Roadmap ein, die sowohl die individuellen Rahmenbedingungen der Hochschulen als auch fachspezifische Bedarfe berücksichtigt.

Ebenfalls referierten Dominik Schmitz (Universitätsbibliothek, RWTH Aachen University) und Marius Politze (IT Center, RWTH Aachen University) über die Verknüpfung von Publikationen und Forschungsdaten in einem Invenio-basierten Repositorium. Die RWTH Aachen betreibt mit RWTH Publications ein Repositorium mit den Funktionen: Publikationsnachweis, Publikationsserver, Forschungsdatenveröffentlichung und Verknüpfung zwischen Publikationen und veröffentlichten oder archivierten Forschungsdaten. Das Repositorium basiert auf der am CERN entwickelten Repositoriumssoftware Invenio, die im Rahmen des Projekts join2 gemeinschaftlich mit den Helmholtz-Einrichtungen DESY Hamburg, DKFZ Heidelberg, GSI Darmstadt und Forschungszentrum Jülich erheblich weiter entwickelt wurde. Zentrale Elemente sind umfangreiche Importmöglichkeiten sowie die aufwändige Verknüpfung der erfassten Daten mit geeigneten Normdaten zu Personen, Instituten, Periodika und Projekten sowie der Datensätze untereinander. Die UB ist als Datenzentrum bei der TIB registriert und vergibt über diesen Weg DOIs für die im Repositorium veröffentlichten Volltexte und Forschungsdaten. Forschungsdaten werden aktuell vor allem im Kontext von Dissertationen mit veröffentlicht. Allerdings wird einer Veröffentlichung von Forschungsdaten an einer technischen Universität immer mit einer gewissen Reserviertheit begegnet und auch die EU-Projektförderung kennt gute Gründe, warum Daten ggf. nicht veröffentlicht werden können. Um den essentiell wichtigen Link zwischen Publikationen und den zugrundeliegenden Daten nicht zu verlieren, ist das Repositorium explizit darauf ausgelegt, Publikationen auch dann mit Daten verknüpfen zu können, wenn diese nicht veröffentlicht sind, sondern z.B. durch die Anwendung SimpleArchive im Archivsystem der RWTH gespeichert werden. Zudem besteht die bereits gerne genutzte Möglichkeit, im Repositorium Datensätze und Daten zu speichern, die nur für das jeweilige Institut zugänglich sind. Auf diese Weise ist eine verlässliche Dokumentationsumgebung entstanden, die die Verbindung zwischen Daten und Publikationen fokussiert und gleichzeitig Skalierungsmöglichkeiten für die vielen unterschiedlichen Anforderungen zum Grad der Zugänglichkeit von Informationen ermöglicht.  Das Repositorium ist Teil einer umfassenderen Service-orientierten Gesamtinfrastruktur für die Unterstützung von vielfältigen Forschungsdatenmanagementprozessen. Diese integrierte IT Landschaft nutzt Technologien wie Single Sign On und aufeinander abgestimmte und vernetzte User Interfaces um die Nutzerfreundlichkeit zu verbessern.

Die RWTH Aachen und das Forschungszentrum Jülich – eine Kooperation zur Stärkung des Forschungsdatenmanagements

06. Dezember 2017 | von

Forschungsdaten zeichnen sich durch eine große Vielfalt an Datentypen und -formaten aus, die entsprechend jeweiliger Fachdisziplinen variieren können. Messergebnisse und Studienerhebungen gelten ebenso als Forschungsdaten wie Zellkulturen, Materialproben oder Dokumentationen archäologischer Funde. Zudem unterliegen diese Forschungsdaten einer breiten Streuung, die weit über den engen Kontext der Datengenerierung hinausreicht.

Die Deutsche Forschungsgemeinschaft empfiehlt daher den Forschungseinrichtungen, sich intensiv mit dem Thema des Forschungsdatenmanagements auseinanderzusetzen. In Anbetracht der stetig zunehmenden nationalen und internationalen Vernetzung verschiedener Forschungseinrichtungen ist das Management von Forschungsdaten ein Prozess, der idealerweise kooperativ vorangetrieben wird. Nur auf diesem Wege können Methoden und Verfahren zielführend implementiert werden, die eine langfristige Nachnutzbarkeit der Forschungsdaten gewährleisten. Auch die RWTH Aachen hat die Notwendigkeit erkannt, Policies, Datenkulturen sowie Strategien und IT-Infrastrukturen zum Forschungsdatenmanagement in Kooperation mit anderen Forschungseinrichtungen zu erbringen.

Zur Etablierung eines institutionell vernetzten Forschungsdatenmanagements baut die RWTH Aachen existierende Kooperationen aus. Bereits im Rahmen der Jülich Aachen Research Alliance, kurz JARA, arbeitet die RWTH Aachen mit dem Forschungszentrum Jülich (FZ Jülich) in sechs Forschungssektionen zusammen. Diese institutionelle Infrastruktur wurde durch die Beteiligung des FZ Jülich in der Aachener Lenkungsgruppe des Forschungsdatenmanagementprojekts ausgebaut. Ziel war hier, Feedback durch einen etablierten Partner wie das FZ Jülich zu den bisherigen Resultaten des Forschungsdatenprojektes zu erhalten und zu prüfen, ob einrichtungsübergreifende Projekte möglich sind.

Aufgrund der von beiden Seiten als äußert positiv bewerteten Ergebnisse intensivieren die RWTH Aachen und das FZ Jülich diese Zusammenarbeit nun. So werden Möglichkeiten gemeinsamer IT-infrastruktureller Lösungen zu den Herausforderungen des Forschungsdatenmanagements eruiert oder entsprechende gemeinsame Forschungsanträge verfasst. Ebenfalls wurde nun ein Vertreter/eine Vertreterin der RWTH Aachen in die Projektlenkungsgruppe zum Forschungsdatenmanagement am FZ Jülich aufgenommen. Im Rahmen dieser Kooperation von RWTH Aachen und dem FZ Jülich können die Bündelung von Kompetenzen vorangetrieben, Synergien genutzt und Wissen vernetzt werden, um so weitere Erkenntnisse zum Forschungsdatenmanagement für die Zukunft zu gewinnen.

Das neue eScience-Team am IT Center

01. Dezember 2017 | von

An der RWTH Aachen arbeiten IT Center, Universitätsbibliothek (UB) und das Dezernat 4.2 – Forschungsförderung seit 2015 in einem Projekt zur Einführung von Forschungsdatenmanagement (FDM) zusammen. Ziel ist es, die Forscherinnen und Forscher an der RWTH optimal beim Management ihrer Forschungsdaten zu unterstützen. Auf der Basis etablierter Standards und Verfahren sollen die Forschenden jeder Disziplin forschungsnah und bedarfsgerecht unterstützt werden, um die Attraktivität und Konkurrenzfähigkeit der RWTH Aachen zu erhalten und zu steigern. Das Projekt läuft mit dem Ende des Jahres 2017 aus. Die darin entwickelten Unterstützungsangebote werden verstetigt und von den beteiligten Einrichtungen weiterentwickelt und ausgebaut.

Im IT Center wurde dazu das eScience-Team neu gegründet. Unter eScience wird dabei von uns nicht nur das Management (digitaler) Forschungsdaten verstanden, sondern es werden alle Prozesse in der Forschung betrachtet. Ziel ist es, analog zum Prozess der Digitalisierung der Lehre (Student LifeCycle Management) auch den Research Life Cycle möglichst umfassend und integriert durch IT-Dienste zu unterstützen.

Doch das eScience-Team beschäftigt sich nicht lediglich mit dem Management von Forschungsdaten. Darüber hinaus sollen Lösungen zum einen für die Analyse und Auswertung von Daten, zum anderen für das Management von Wissen entwickelt und integriert werden. Ebenso erarbeitet das eScience-Team unterstützende Prozesse zu Antragstellungen, Projekt- und Ressourcenmanagement oder zum kollaborativen Arbeiten und dem Management von Dokumenten.

Das Vorhaben bildet einen wichtigen Baustein in der Digitalisierungsagenda der RWTH Aachen, die vom Rektorat vorangetrieben wird, und wird in enger Abstimmung und Zusammenarbeit mit den anderen zentralen Anbietern von IT-Dienstleistungen in der Hochschule (IT Center, Universitätsbibliothek und Zentrale Hochschulverwaltung) sowie mit den Forschenden verfolgt.

Wenn Sie Fragen zu den Themen Forschungsdatenmanagement und eScience haben erreichen Sie die Projektgruppe Forschungsdatenmanagement und das eScience-Team unter servicedesk@rwth-aachen.de.

Die Lebensdauer von Daten verlängern

29. November 2017 | von

Archivierung

Auf dem IT Center Blog wurde bereits die Kooperation zwischen dem Hochschulbibliothekszentrum NRW und der RWTH Aachen vorgestellt. Die innerhalb der Kooperation für das Forschungsdatenmanagement getestete Software Rosetta dient der Langzeitarchivierung von Daten. Doch was bedeutet eigentlich Archivierung? Und was genau heißt Langzeitarchivierung von Daten?

Digitale Daten zu archivieren bedeutet, sicherzustellen, dass die Daten auch zukünftig noch genauso verfügbar sind, wie sie archiviert wurden. Dieser Aspekt wird als bitstream preservation bezeichnet. Der ungefähre zeitliche Horizont dieser Art von Datensicherung wird durch die Vorgabe der Guten wissenschaftlichen Praxis definiert, Forschungsdaten mindestens zehn Jahre lang aufzubewahren.

Bitstream preservation hält allerdings keine Lösung für die Frage bereit, ob man mit den Daten auch nach zehn Jahren noch etwas anfangen kann.

Herausforderungen der Archivierung

Daten so zu speichern, dass sie auch nach längerer Zeit noch in genau der gleichen Form verfügbar sind, erscheint zunächst einmal selbstverständlich und nicht besonders schwierig. Tatsächlich sind gespeicherte Daten aber beträchtlichen Risiken ausgesetzt. Speichermedien haben eine begrenzte Lebenszeit. Nach einigen Jahren gehen zunächst einzelne Bits verloren, die Daten sind nicht mehr vollständig lesbar. Störfälle wie Virenbefall, Stromausfälle, Ausfall von Kühlsystemen oder gar Katastrophen wie Brände oder Überschwemmungen können zum sofortigen Verlust aller Daten führen. Möglicherweise gibt es das Programm, mit dem die Daten verarbeitet werden, gar nicht mehr. Software, Betriebssysteme und Rechnerarchitekturen entwickeln sich weiter, was dazu führen kann, dass alte Datenformate nicht mehr interpretiert werden können.

Langzeitarchivierung

Die bitstream preservation ist daher nur die halbe Miete, wenn es darum geht, Daten langfristig nutzbar zu halten. Verfahren der Langzeitarchivierung sind ein weiterer Beitrag zur vollständigen Miete. Hier ist der Anspruch, Daten für potenziell unbegrenzte Zeit interpretierbar zu halten. Für die Lösung dieses Problems gibt es zwei Ansätze: Emulation und Migration/Konversion.

Der Ansatz der Emulation sieht vor, die für das Lesen und Bearbeiten der Daten nötige Software und manchmal auch die komplette Betriebssystemumgebung in einer virtuellen Maschine (VM) mit zu archivieren (Kapselung), um diese dann in einem zukünftigen Computersystem mittels einer Emulationssoftware wieder nutzbar zu machen. Abgesehen davon, dass dies hohe Kosten verursachen kann, garantiert das Vorgehen aber noch immer nicht, dass die archivierte VM in Zukunft wieder funktionieren wird, die Emulation also gelingt.

Die Software Rosetta der Firma Ex Libris, die vom Hochschulbibliothekszentrum (hbz) für die NRW-Hochschulen betrieben wird, verfolgt die andere Strategie der Migration/Konversion archivierter Daten. Hier wird bei der Einlieferung der Daten deren Format gemäß einer internationalen Formatdatenbank bestimmt und diese Metainformation mitgespeichert. Die Formatdatenbank PRONOM der National Archives of the United Kingdom wird kontinuierlich gepflegt und enthält auch Informationen über die Verbreitung und Lesbarkeit von Datenformaten. Die National Archives stellen auch die Software DROID, die die automatisierte Formatbestimmung ermöglicht, zur Verfügung. Diese Information nutzt Rosetta, um den/die Datenkurator/in zu warnen, wenn das Format der von ihr/ihm eingelieferten Daten Gefahr läuft, nicht mehr lesbar zu werden. Der/die Kurator/in kann dann Maßnahmen ergreifen, um das Problem zu lösen, wie etwa die Daten in ein anderes Format zu transformieren. Die Herstellerfirma Ex Libris, die National Archives und weitere Einrichtungen arbeiten auch daran, für weit verbreitete Formate entsprechende Konversionstools zu entwickeln.

Rosetta setzt außerdem das Open Archival Information System (OAIS), das in der ISO-Norm 14721, beschrieben ist, um. Es sieht die Unterscheidung von Informationspaketen für verschiedene Zwecke vor: Daten werden zunächst als Submission Information Package (SIP) eingeliefert. Nachdem alle Validierungsschritte erfolgreich waren, werden die Daten als Archival Information Package (AIP) archiviert, um bei Bedarf in ein Dissemination Information Package (DIP) kopiert und zur Nachnutzung ausgeliefert zu werden. Informationspakete enthalten neben den eigentlichen Daten auch Metadaten (wie z.B. das Dateiformat). Ist eine Übertragung in ein anderes Datenformat nötig, wird diese Information ebenfalls im AIP gespeichert, so dass darin auch die gesamte Änderungshistorie der Daten verfügbar ist.

Auch wenn es gelingt, die technische Lesbarkeit der Daten und Metadaten zu erhalten, ist leicht vorstellbar, dass Menschen, die diese in 50 Jahren einmal nachnutzen wollen, auf die Qualität der Metadaten und Dokumentationen angewiesen sind, um die Daten zu verstehen – von der Spaltenbenennung über die Beschreibung des Versuchsaufbaus bis hin zur Dokumentation der Forschungsfrage. Langzeitarchivierung beginnt also heute bei der Dokumentation und Beschreibung unserer Daten!

Großes Interesse und reger Andrang: Ablauf und Resultate des ELN-Workshops

27. November 2017 | von

Am 20.11.2017 fand ein Workshop zur Nutzung elektronischer Laborbücher (ELN) statt. „Elektronische Laborbücher (ELN) stellen einen integralen Bestandteil der digitalisierten Forschungsumgebung dar und ermöglichen, im Labor generierte Daten über das jeweilige Labor hinaus verfügbar und nachnutzbar zu machen“ (Quelle). Die Idee zum Workshop gründet in dem Umstand, dass momentan eine Vielzahl unterschiedlicher ELN-Lösungen auf dem Markt existieren, die sich an den Bedürfnissen unterschiedlicher Forschungskulturen und -disziplinen orientieren. In dem Workshop gab es die Möglichkeit, die unterschiedlichen ELN-Lösungen kennen zu lernen und sie hinsichtlich der Angemessenheit für die eigene Forschung zu bewerten.

An dem Workshop nahmen über 70 Teilnehmer/innen aus ganz Deutschland teil, die sowohl aus Anwendenden verschiedener Disziplinen (Chemie, Biologie, Physik, Ingenieurwesen), als auch aus Service Providern aus Rechenzentren und dem Bibliothekswesen bestanden. Zudem waren 6 Aussteller/innen mit Demo-Ständen zu ELN-Lösungen mit verschiedenen Fokussen anwesend. Das Spektrum der Demo-Stände reichte von kommerziellen, generischen Lösungen über Open-Source Projekte aus den Fachcommunities bis zu DFG-geförderten Lösungen (wie z.B. für Strukturchemie).

Der Workshop gliederte sich in zwei Teile. Im ersten Teil fanden 8 Vorträge mit starken Praxisbezug statt, in denen Entwickler/innen und erfahrene Anwender/innen verschiedene ELN-Lösungen präsentierten. Im zweiten Teil wurde die konzeptionelle und organisatorische Perspektive verstärkt in den Vordergrund gerückt. Hier konnten u.a. Fragen zur Beweiskraft von Forschungsdaten, die in ELN gespeichert werden, geklärt werden. Darüber hinaus wurden Informationen und Erfahrungen zu den notwendigen Rahmenbedingungen für den Einsatz von elektronischen Laborbüchern ausgetauscht.

Die Relevanz des Workshops wird zum einen durch die Zahl der Besucher/innen aus ganz Deutschland und aus verschiedenen Disziplinen belegt, aber auch durch die regen Diskussionen der Teilnehmenden und die Nachfragen an die Sprecher/innen. Großes Interesse bestand an Informationen und Richtlinien zur Auswahl „des richtigen“ ELNs. Aber auch Fragen nach der Integration von ELNs in den Arbeitsablauf im Laboralltag waren von großem Interesse.

Insgesamt gibt es viel Bewegung im Bereich der elektronischen Laborbücher, da der Reifegrad vieler Produkte bereits sehr hoch ist und die Digitalisierung im Labor sukzessive Einzug hält. Zugleich besteht jedoch noch ein großer Informations- und Beratungsbedarf bei den potentiellen Anwendenden, der bestenfalls durch den regelmäßigen Austausch mit Anwendenden und Entwickler/innen gedeckt werden kann.

Bilden Sie sich weiter durch Workshops zum Forschungsdatenmanagement?!

24. November 2017 | von

Forschungsdaten bilden die Grundlage von individuellem wie gesellschaftlichem Wissen. Doch je älter die Daten sind, desto notwendiger ist es, Kontextinformationen zur ihrer Interpretation bereitzustellen. Auch erfordert die geografische Distanz zwischen kooperierenden Forschungseinrichtungen die Möglichkeit der gemeinsamen Generierung, Langzeitarchivierung und Wiederbereitstellung von Daten. Forschungsdatenmanagement umfasst alle Methoden und Verfahren, die sich diesen Herausforderungen widmen. Forschungsdatenmanagement zielt auf die Organisation der kooperativen Forschung, das lückenlose Nachweisen der Ergebnisse, das Sichern von Wissen, das Ausschöpfen von Erkenntnispotentialen und die Sichtbarmachung der eigenen Forschung.

Die RWTH Aachen bietet für ihre Beschäftigten Workshops zu den unterschiedlichen Aspekte des Forschungsdatenmanagements an. Sich mit den Grundlagen des Forschungsdatenmanagements vertraut zu machen, ist ebenso möglich wie die thematische Vertiefung. Sie können sich über verschiedene Domäne-Modelle und deren Differenzierung nach Kooperationsform und Stand des Forschungsprozesses (von der Generierung über die Publikation bis zur Archivierung von Daten) informieren. Zudem werden in den Workshops Tools zum Anlegen von Metadatenschmeta, zur Archivierung und zum Austausch von Daten vorgestellt. Auch wichtige Aspekte des Urheberrechts sind Gegenstand spezifischer Workshops.

Neugierig geworden? Weitere Informationen finden Sie auf der Seite zum Forschungsdatenmanagement und in der Veranstaltungsdatenbank zur Personalentwicklung der RWTH Aachen University. Individuelle Beratungs- oder Schulungstermine für Institute oder Arbeitsgruppen können gerne über das IT-ServiceDesk vereinbart werden.

Ein wesentlicher Bestandteil der Langzeitarchivierung von Forschungsdaten: Datenspeicherung am Beispiel der RWTH Aachen University

21. November 2017 | von

Die RWTH Aachen und das IT Center beschäftigen sich intensiv mit Fragen der Langzeitarchivierung von Daten. bitstream preservation ist die Grundvoraussetzung der Langzeitarchivierung. Ein Bitstream stellt eine festgelegte Abfolge von Bits dar, die den Wert 0 oder 1 haben und auf Datenträgern digital gespeichert werden. Daten digital zu archivieren bedeutet, einen ersten Schritt dahingehend zu unternehmen, dass die Daten auch zukünftig noch genauso verfügbar sind, wie sie archiviert wurden. Ein weiterer wesentlicher Bestandteil der Langezeitarchivierung ist die Datenspeicherung, die sich von der Langzeitarchivierung durch den vorgegebenen zeitlichen Rahmen der Datenhaltung unterscheidet. Die Maßnahmen zur Sicherung der Daten wird hier nun am Beispiel des an der RWTH eingesetzten Archivsystems von IBM erklärt.

Entsprechen einer weit verbreiteten Art der digitalen Datenspeicherung erfolgt die Archivierung der Daten auf Magnetbändern, auf denen Daten aufgrund der langen Datenhaltung besonders energieeffizient und kostengünstig gespeichert werden können. Die Bandspeichersysteme werden durch eine Software und mithilfe eines insgesamt Petabyte großen Datenbanksystems verwaltet und gesteuert. Um die Performance bei der Ein- und Auslieferung der Daten zu erhöhen, verfügt das System zusätzlich über Festplattenspeichersysteme. So können pro Nacht bis zu 250 Terabyte bewegt und im Regelfall um die 80 TByte pro Nacht Daten verarbeitet werden.

Zur Sicherung der Daten werden zwei Taktiken verfolgt: Die Speicherung redundanter Kopien und die regelmäßige Überprüfung der Daten.

Alle eingelieferten Daten werden redundant auf zwei verschiedenen Bändern gespeichert. Sollten also Teile der Daten auf einem Band verloren gehen, können Sie durch die andere Kopie wiederhergestellt werden. Zudem werden die Daten auch noch zum Forschungszentrum Jülich gespiegelt, so dass für den Katastrophenfall Standortredundanz gesichert ist.

Zum anderen wird die Integrität der Daten durch das Bilden und Vergleichen von Hash-Werten überprüft, wenn eine Operation (Einliefern, Kopieren, Ausliefern) stattfindet. Zusätzlich erfolgt diese Überprüfung ereignisunabhängig in regelmäßigen Abständen. So fallen Defekte an den Daten auf und können dann durch Nutzung anderer Kopien repariert werden. Auch die einzelnen Bänder werden regelmäßig geprüft. Im Falle eines Defektes wird dieser durch IBM analysiert und kann in den meisten Fällen repariert werden.