[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

[InetBib] Call for Papers LIBREAS #23: Forschungsdatenmanagement



Werte Damen und Herren,
werte Kolleginnen und Kollegen,

gerne möchte ich Sie hiermit auf den Call for Papers für die Ausgabe #23 der 
LIBREAS zum Thema Forschungsdatenmanagement hinweisen. Dieser findet sich unter 
http://libreas.wordpress.com/2012/12/12/call-for-papers-forschungsdaten-metadaten-noch-mehr-daten-forschungsdatenmanagement/
 und im Wortlaut auch in dieser Mail.

(Der aktuelle CfP für die Ausgabe #22 
http://libreas.wordpress.com/2012/10/24/call-for-papers-ausgabe-22-recht-und-gesetz/
 läuft weiterhin bis zum 31.01.2013).

für die LIBREAS-Redaktion
Karsten Schuldt


************************************************************
Call for Papers: Forschungsdaten, Metadaten, noch mehr Daten. 
Forschungsdatenmanagement

„Eine Forschung, die zunehmend durch die kooperative Tätigkeit weltweit 
vernetzter Communities und durch den Einsatz Computerbasierter Verfahren 
bestimmt ist, erfordert nun einmal die kontinuierliche und vor allem 
langfristige Verfügbarkeit von Publikationen und Forschungsdaten über das 
Internet. Nicht nur die Notwendigkeit, Forschungsergebnisse durch den Rückgriff 
auf die diesen Ergebnissen zugrunde liegenden Daten verifizieren zu können, 
sondern auch die produktive Nachnutzung von Forschungsdaten in anderen 
Kontexten setzt voraus, dass digital kodierte Information über Jahrzehnte 
hinweg authentisch verfügbar bleibt.“ (Matthias Kleiner. Vorwort. In: Heike 
Neuroth et al. (2012), S. 9)

„Die Basis einer gesunden Ordnung ist ein großer Papierkorb.“ (Kurt Tucholsky. 
In: Neue Leipziger Zeitung, 19.08.1930)


Wissenschaft produziert heute neben Erkenntnis vor allem immense Datenmengen. 
Die enorme Steigerung beruht in erster Linie auf der Entwicklung und 
Verfügbarkeit von Technologien zur Datenproduktion und -verarbeitung. 
leistungsstärkere Rechner und Messgeräte produzieren und vernetzen immer mehr 
Daten. Wo viele Daten sind, kommen fast naturgesetzlich immer noch mehr hinzu. 
Die Datenmengen, eines  Large Hadron Collider (LHC) in Genf sind derart 
umfangreich, dass sie nicht einmal mehr an einer zentralen Stelle gespeichert 
werden können, sondern auf das LHC Computing Grid verteilt werden müssen. Aber 
auch im Alltag entstehen immer mehr Daten „nebenher“, beim Surfen im Netz, beim 
Chatten, beim Taggen von Dateien usw. Nahezu jeder Klick erzeugt auch neue 
Daten.

Die Entwicklung führt zu umfassenden Änderungen der Wissenschaft, ihrer 
Methoden und besonders den Anforderungen an ihre Werkzeuge sowie an die 
Wissenschaftsinfrastrukturen. Datenintensive Forschung braucht angemessene 
Hilfsmittel. Physikerinnen und Physiker, die mit Daten aus LHC-Experimenten 
arbeiten wollen, müssen lernen, Daten aus dem Grid zusammensammeln und 
auszugeben. Sozialwissenschaftlerinnen und -wissenschaftler, die theoretische 
Modelle zum Zusammenhang von Hochschulsystem und Städteplanung über mehrere 
Staaten hinweg testen wollen, können dafür auf eine umfassende Datenlage 
zurückgreifen. Sie müssen aber diese kennen, finden und weiterverarbeiten 
können.

Angesichts dieser empirischen Wende könnte das Testen theoretischer Modelle 
bald der Vergangenheit angehören. Jim Gray formulierte die These, dass wir in 
die Zeit des vierten Forschungsparadigmas eintreten würden. (Hey, Tansley & 
Tolle, 2009) Die Forschungsdatenbestände würden zu groß werden, um überhaupt 
noch anders als mit explorativer Statistik, also einer Art Datenhermeneutik, 
auswertbar zu sein. Ob dies für alle Wissenschaften zutrifft, ist offen.

Folgerichtig wird die Bedeutung von langfristig und offen verfügbaren 
Forschungsdaten für den Forschungsprozess immer stärker betont. Man entwirft 
Systeme, die die Reputation einer Forscherin, eines Forschers an die erstellten 
Daten binden sollen. Diese Diskussion überdeckt eine andere Wahrheit: Immer 
noch sitzen die Theologinnen und Theologen an ihren Schreibtischen und 
produzieren nicht viel mehr Daten als in den Jahrhunderten zuvor. Sie benutzen 
aber möglicherweise zunehmend digital vorliegende Quellen. So geht es vielen 
Disziplinen: Einige, wie die Physik oder die Klimaforschung, erzeugen permanent 
riesige Datenmengen. Bei anderen ist vielleicht nicht das Wachstum der eigens 
produzierten Datenmengen überwältigend. Wohl aber die Zahl der durch die 
Digitalisierung direkt abrufbaren Datenbestände. Um diese ordentlich zu nutzen, 
sind adäquate Erschließungs- und Vermittlungsverfahren sowie Werkzeuge 
notwendig.


Wie soll Forschungsdatenmanagement funktionieren?

Abgesehen von den Auswirkungen auf die Wissenschaftspraxis selber, wirft das 
Wachstum der Forschungsdaten und die Anforderung ihrer langfristigen Sicherung 
(Deutsche Forschungsgemeinschaft, 2009) wichtige Fragen für Bibliotheken und 
Bibliothekswissenschaft auf:
- Werden Daten ein neues/das neue Arbeitsfeld für Bibliotheken?
- Sind Daten im 21. Jahrhundert das, was Zeitschriften für das Bibliothekswesen 
im 20. waren?

Viele wissenschaftliche Bibliotheken adoptierten die Aufgabe, Forschungsdaten 
zu managen, persistent und abrufbar vorzuhalten. Aber braucht die Wissenschaft 
diese Dienste der Bibliotheken überhaupt? Die Physik kann darauf verweisen, 
solche Systeme selbst längst entwickelt zu haben. In der Klimaforschung gibt es 
das System der Weltdatenzentren seit den 1950er Jahren. In den 
Geisteswissenschaften werden riesige Infrastrukturen aufgebaut (vgl. 
www.clarin.eu, www.dariah.eu, www.textgrid.de) und die Theologie kann fragen, 
ob sie so etwas überhaupt benötigt oder ob nicht einfach das WWW reicht. 
Natürlich finden sich zahlreiche funktionierende Projekte.

Im Handbuch Forschungsdatenmanagement (Büttner, Hobohm & Müller, 2011) und dem 
Nestor-Handbuch zur Langzeitarchivierung von Forschungsdaten (Neuroth et al., 
2012) spiegelt sich das Verständnis der beteiligten Bibliotheken wieder: Sie 
wollen die Einrichtung zum Managen von Forschungsdaten sein, auch wenn sie 
wissen, dass Forschungsdaten in unterschiedlichen Wissenschaftsfeldern 
Unterschiedliches bedeuten und sich damit in jedem Wissenschaftsfeld beim 
Organisieren von Forschungsdaten andere Fragen stellen und weitere Akteure des 
Informationsinfrastrukturbereichs an den Prozessen von Datenproduktion und 
Datenspeicherung beteiligt sein müssen. Die Bibliothekare wollen als Data 
Librarian oder Data Curator bereits bei der Entstehung von Forschungsdaten 
beteiligt sein. Sie wollen Standards definieren und durchsetzen.

Aber mit welchem Recht? Welche Rolle könn(t)en und soll(t)en Bibliotheken dabei 
spielen und an welcher Stelle des Forschungsprozesses müssen sie dazu verankert 
werden? Wie können sie ihr Rollenverständnis den Forschenden vermitteln? Wie 
soll die Ausbildung solcher Data Librarians aussehen? (Vgl. für ein Schema zu 
dieser Frage Harris-Pierce & Liu, 2012)

Die Ausgabe #23 der LIBREAS. Library Ideas möchte den gesamten Bereich von 
Forschungsdaten und Forschungsdatenmanagements betrachten.
- Wie werden und wie sollten Forschungsdaten gemanagt werden?
- Wo funktioniert es? Wo nicht? Wie verändert sich Wissenschaft tatsächlich?
- Was will die Wissenschaft und was erwarten einzelne Forschende in Bezug auf 
Forschungsdaten genau?
- Reden wir eigentlich noch von Bibliotheken oder von anderen, neu zu 
benennenden Einrichtungen?
- Gilt das vierte Paradigma oder gilt es nicht? Ist das alles ein Hype oder 
-wird es zum Kontinuum?
- Wie bildet man Forschungsdaten in FRBR ab?
- Welche Daten müssen bewahrt werden?
- Welche können – wann? – gelöscht werden?
- Wie nehmen die Forschenden die Bibliotheken wahr, wenn diese von 
Forschungsdatenmanagement sprechen? Clair (2012) zeigte, dass sie den 
Bibliotheken zumeist noch nicht einmal zutrauen, die Metadaten der 
institutionseigenen Homepages zu pflegen. Wieso sollten Wissenschaftlerinnen 
und Wissenschaftler dann begeistert davon sein, wenn Bibliotheken 
Forschungsdaten managen wollen?
- Was passiert mit den Wissenschaftsfeldern, die weiterhin wenige Daten 
produzieren? Geht es, wie zum Beispiel Daniel Kaplan (2012) fragt, eigentlich 
noch um Wissen oder nur noch um grosse Datenmengen?
- Was passiert mit den Daten, die nie jemand nutzt? Ist das ein eigener 
Wissensraum?
- Was ist mit den Forschungsdaten unserer eigenen Wissenschaft?
- Wer soll das alles bezahlen, insbesondere, wenn es weltweit zugänglich 
gemacht wird?
- Und nicht zuletzt: Was sind eigentlich Forschungsdaten?

Wir suchen Beiträge, die Fragen im Zusammenhang mit dem 
Forschungsdatenmanagement und der Wissenschaftsentwicklung reflektieren oder 
die Praxis über Einzelfälle hinaus darstellen. Einsendeschluss für die 
LIBREAS-Ausgabe #23 ist der 31.05.2013. Für Fragen steht die Redaktion gern zur 
Verfügung. Willkommen sind selbstverständlich weiterhin auch Beiträge, die 
andere Themenbereiche der Bibliotheks- und Informationswissenschaft sowie des 
Bibliothekswesens bearbeiten.

Dezember 2012, Redaktion LIBREAS
Berlin, Bielefeld, Chur, Mannheim, Potsdam

Literatur
- Büttner, Stephan; Hobohm, Hans-Christoph; Müller, Lars (Hrsg.) (2011). 
Handbuch Forschungsdatenmanagement. Bad Honnef: Bock + Herchen, 2011.
- Clair, Kevin M. (2012). Metadata Best Practices in Web Content Management 
Systems. In: Journal of Library Metadata 12 (2012) 4, 362-371.
- Deutsche Forschungsgemeinschaft (2009) Empfehlungen zur gesicherten 
Aufbewahrung und Bereitstellung digitaler Forschungsprimärdaten
- Harris-Pierce, Rebecca L.; Liu, Yan Quan (2012). Is data curation education 
at library and information science schools in North America adequate?. In: New 
Library World 113 (2012) 11/12, 598-613.
- Hey, Tony; Tansley, Stewart; Tolle, Kristin (edit.) (2009). The fourth 
paradigm: data-intensive scientific discovery. Redmond: Microsoft Research, 
2009.
- Kaplan, Daniel (2012). Big data, grande illusion?. In: Documentaliste – 
Sciences de l’information 49 (2012) 3, 10-11.
- Neuroth, Heike; Strathmann, Stefan; Oßwald, Achim; Scheffel, Regine; Klump, 
Jens; Ludwig, Jens (2012). Langzeitarchivierung von Forschungsdaten: Eine 
Bestandsaufnahme. Boizenburg: vwh Verlag, 2012.

-- 
http://www.inetbib.de

Listeninformationen unter http://www.inetbib.de.