In diesem Blogbeitrag informieren wir Sie über die Herkunft und Bedeutung der sogenannten FAIR-Prinzipien und ordnen den Begriff in den weiteren Kontext des modernen Managements von Daten ein.
Wer sich schon einmal mit dem Thema „Forschungsdatenmanagement“ auseinandergesetzt hat, ist früher oder später auf den Begriff der „FAIR-Prinzipien“ gestoßen. Grob gesagt, handelt es sich dabei um eine Faustregel, wie Forschungsdaten auffindbar und austauschbar gemacht werden können. Einige unserer Leserinnen und Leser werden auch die Bedeutung des englischen Akronyms „FAIR“ kennen, das für „Findability, Accessibility, Interoperability, and Reusability“ steht. Doch was steckt genau dahinter? Woher kommt das Akronym? Für welche Probleme soll es eine Lösung bieten und für wen oder was gilt es?
Wilkinsons Fragen
Im März 2016 wurden die FAIR-Prinzipien zum ersten Mal im Artikel „The FAIR Guiding Principles for scientific data management and stewardship“ von Marc D. Wilkinson et al. publiziert. Wilkinson kommt aus dem Bereich der medizinischen Genetik. Er und andere Kollegen erkannten, dass es in gewissen Bereichen bereits gut kuratierte Repositorien für Forschungsdaten gab. Beispiele sind die Genbank, UniProt oder die Worldwide Protein Data Bank (wwPDB) in den Lebenswissenschaften.
Jedoch wurde ihnen klar, dass diese auf gewisse Datentypen hoch-spezialisierten Repositorien nicht alle Daten abbilden können. Zahlreiche Fragen leiteten sich daraus ab. Wie können auch Daten aus klassischen Experimenten abgebildet werden, wenn die Repositorien nur ein einzelnes oder einige wenige Formate zulassen? Wie ist es möglich, gezielt und effektiv nach Daten zur Nachnutzung suchen zu können? Können die passenden Datensets zur Nachnutzung runtergeladen werden? Und wenn ja, unter welcher Lizenz stehen sie?
Mensch und Maschine: Kernproblem des modernen Managements von Daten
Hinter diesen Fragen verbirgt sich ein Kernproblem des modernen Wissensmanagements, nämlich die Barrieren, die Menschen den Zugang zu Daten verwehren. Es handelt sich hierbei vor allem um die riesigen Mengen an Daten in einer globalen Forschungslandschaft, die eine unüberwindbare Herausforderung darstellen. So kann es Wochen oder gar Monate dauern, nach passenden Daten zu suchen, die Forschungsfragen beantworten.
Teilweise ist es sinnvoller, das Experiment selbst durchzuführen, anstatt Zeit und personelle Ressourcen in die Suche zu investieren, die im schlimmsten Fall ohne Ergebnis ausgeht. Unsere Haupteinschränkung besteht also darin, dass wir nicht in der Lage sind, in dem Umfang, in der Größenordnung und in der Geschwindigkeit zu agieren, wie es der Umfang der zeitgenössischen wissenschaftlichen Daten und ihre Komplexität erfordern. Das frühere analoge Datenmanagement über Archive und Bibliotheken, das mit ihren Karteien und Indizes zur Übersicht und zur Suche von Daten auskam, reicht heutzutage längst nicht mehr aus.
Aus diesem Grund verlassen sich Menschen zunehmend auf rechnergestützte Hilfe, um Entdeckungs- und Integrationsaufgaben von Daten durchzuführen. Aber auch für Maschinen gibt es Hürden. Ist es für Menschen oft möglich, passende Daten durch Kontextinformationen zu identifizieren, ist eine Maschine auf standardisierte Operatoren angewiesen, um sie zu „verstehen“ und sie im Auftrag des Menschen zu finden und gegebenenfalls zu verarbeiten. Dies ist nur erfolgreich, wenn alle Daten, die global erstellt werden, gemeinsamen Standards folgen. Und genau hier setzen die FAIR-Prinzipien an. Daten sollen rechnergestützt auffindbar und für Maschine und Mensch zugänglich und verständlich sein. Dies fängt bei der Verwendung standardisierter Metadaten zur Beschreibung der Daten an und hört mit offenen Lizenzen für eine Nachnutzung auf. „FAIR“ eben: Auffindbar, zugänglich, interoperabel und wiederverwendbar.
Zweck der FAIR-Prinzipien
Lösen die FAIR-Prinzipien alle oben genannten Herausforderungen? Die Antwort auf diese Frage ist ein klares „Jain“. Die FAIR-Prinzipien dienen als Leitplanke, in dessen Fahrbahn die einzelnen Forschungsgemeinschaften ihre eigenen Wege für ihre fachspezifischen Daten finden sollen. Sie schlagen ausdrücklich keine Technologien, Standards oder Umsetzungslösungen vor, sondern helfen bei der Bewertung der Qualität von Forschungsdaten.
Sie gelten universal für alle, die mit Forschungsdaten zu tun haben: Repositorien, Verlage, Universitäten und Forschungseinrichtungen, Anbieter von Infrastrukturelementen, Forschende, Führungskräfte, Data Stewards und so weiter und so fort. Sie können als Katalysator für einen grundlegenden Kulturwandel im Management von Daten – und somit unseres Wissens über die Welt – angesehen werden.
Praktische Umsetzung in Deutschland
Im Zuge des Digitalisierungsfortschritts in der Europäischen Union und infolgedessen in Deutschland wurde erkannt, dass Daten wertvoll sind und dass eine gute – FAIRE – Dateninfrastruktur in der Forschung ein bedeutender Faktor in der modernen globalisierten Welt ist. Die FAIR-Prinzipien sind und waren ein ausschlaggebender Faktor, dass sich in Deutschland über den Rat für Informationsinfrastrukturen (RFII) und die Gemeinsame Wissenschaftskonferenz (GWK) die Fachinitiativen der Nationalen Forschungsdateninfrastruktur (NFDI) entwickelt haben.
Jede Forscherin und jeder Forscher ist dazu angehalten, im Rahmen seiner oder ihrer Möglichkeiten die Forschung FAIR zu gestalten. Unser zentrales FDM-Team der RWTH unterstützt Sie gerne bei der Umsetzung. Kontaktieren Sie uns gerne per E-Mail.
Verantwortlich für die Inhalte dieses Beitrags ist Katharina Grünwald.
Schreibe einen Kommentar
Du musst angemeldet sein, um einen Kommentar abzugeben.