»Big Data« is the new oil – Schwerpunkt der neuen Ausgabe der ERCIM-News

»Big Data«, sehr große Datensätze, die nicht mehr mit der heutigen Datenbanktechnologie zu verarbeiten sind, stellen das Forschungsdatenmanagement in den kommenden Jahren vor große Probleme – dabei sind die jetzigen Schwierigkeiten insbesondere der Langzeitarchivierung auch kleiner Datenmengen ja keineswegs gelöst. Klar scheint, dass das von Jim Gray ausgerufene vierte wissenschaftliche Paradigma der datenintensiven Forschung auch jenseits der »Big Science« von CERN und ESA die Bedeutung der Kuratierung von Forschungsdaten weiter fördern wird.

Das Thema datenintensive Forschung wird in der aktuellen Ausgabe der ERCIM-News vor allem mit Blick auf den Einsatz von Cloud Computing zur Datenanalyse, aber auch hinsichtlich der Langzeitarchivierung, näher beleuchtet. Vorgestellt wird unter anderem das EU FP7-Projekt SCAPE (Scalable Preservation Environments), das seit 2011 an der Verbesserung von Tools zur Qualitätssicherung von Daten, aber auch an verbesserten Policies arbeitet. Ein Blick in das Projekt-Wiki lohnt immer, um bei den Weiterentwicklungen auf dem Laufenden zu bleiben.

This entry was posted in Forschungsdaten, Langzeitarchivierung, Veröffentlichungen and tagged , . Bookmark the permalink.

Comments are closed.