Der Verlust der biologischen Vielfalt und der Klimawandel gehören zu den zentralen Herausforderungen der Menschheit. Deshalb werden in der Wissenschaft vermehrt großflächig raumbezogene Vektor- und Rasterdaten auf Grundlage der FAIR-Prinzipien verwaltet und durch Anwendung skalierbarer Verarbeitungs- und Analysesoftware neue Erkenntnisse gewonnen. Dieser Beitrag gibt einen Überblick zu aktuellen Entwicklungen zum Forschungsdatenmanagement in Deutschland, Europa und darüber hinaus.
Geo-Daten können durch unterschiedlichste Sensoren günstig erfasst und über das Internet allen zur Verfügung gestellt werden. Insbesondere im Bereich der Biodiversitätsforschung ergeben sich dadurch neue Möglichkeiten Methoden zu entwickeln und Erkenntnisse zu gewinnen, um dem drohenden Biodiversitätsverlust entgegenzutreten. Voraussetzung hierfür ist aber ein konsequent umgesetztes Forschungsdatenmanagement, bei dem die raumbezogenen Daten nach den FAIR Prinzipien verwaltet werden. Dabei ist FAIR ein Akronym für findability, accessibility, interoperability, und reusability. In Deutschland soll deshalb in den kommenden Jahren eine nationale Forschungsdateninfrastruktur (NFDI) entstehen, um insbesondere die Geo-Datenbestände von Wissenschaft und Forschung systematisch zu erschließen, nachhaltig zu sichern und zugänglich zu machen sowie auf nationaler und internationaler Ebene interdisziplinär zu vernetzen. NFDI setzt dabei nicht nur auf die reine Datenerfassung, sondern ebenfalls auf die nachhaltige Entwicklung und Austausch von Softwarewerkzeugen, um damit Forschungsergebnisse nachvollziehbar und reproduzierbar zu machen. Hierbei sollen in diesem Beitrag Antworten auf die Frage gegeben werden, wie die FAIR-Prinzipien sich auf Softwarewerkzeuge übertragen lassen, die für die skalierbare Verarbeitung und Analyse von Geo-Daten eingesetzt werden.