Gesendet: Samstag, 12. Oktober 2013 um 16:06 Uhr
Von: "Peter Ohly" <peter.ohly@xxxxxxxxxxxxxx>
An: "Internet in Bibliotheken" <inetbib@xxxxxxxxxxxxxxxxxx>
Betreff: Re: [InetBib] „Was sind eigentlich Daten?“
Lieber Herr Umstätter,
zunächst vielen Dank für den Hinweis auf die interessante 
Darstellung von
Jakob Voß, worin Ballsun-Stantons Punkt der “data as communications” 
wohl
für die Informationswissenschaft am treffendsten zu sein scheint. 
Ansonsten
kann nur beigepflichtet werden, dass das jeweilige Verständnis in 
unserer
multidisziplinären Welt ggf. erst eruiert werden muss.
Leider gibt es keinen Bezug zu Wersig oder Kuhlen, die Information als
etwas mehr als Daten ansehen, nämlich als interpretierbare,
handlungsrelevante Daten. Auch Sie führen leider den 
Informationsbegriff
nur auf Shannon-Weaver zurück, wo es sich in der Tat nur um formale 
Bits
handelt. Hier könnte man vielleicht sagen, dass diese schon den Begriff
‚Information‘ vielleicht irreführend verwendet haben. Selbst der 
Begriff
‚Nachricht‘ setzt eigentlich eine Interpretationsfähigkeit dieser 
voraus,
denn sie ist ja an einen (als verstehend vorausgesetzten) Empfänger
gerichtet. Gravierender ist meines Erachtens die Abgrenzung gegenüber
‚Wissen‘. Dies sollte mehr als ‚Information‘ sein: umfangmäßig, in der
wissenschaftlichen Absicherung, in der kausalen Vernetzung. Hier liegt
derzeit wohl die größte Problematik, dass ständig von ‚Wissen‘ 
gesprochen
wird, obwohl nur ‚Information‘ geliefert, verarbeitet etc. wird – von
Erkenntnis ganz zu schweigen, die zusätzlich eine transzendentale 
Qualität
aufweist.
Am 12. Oktober 2013 13:14 schrieb h0228kdm <h0228kdm@xxxxxxxxxxxxxxxx>:
Jakob Voss hat in LIBREAS 
http://libreas.eu/ausgabe23/**02voss/<http://libreas.eu/ausgabe23/02voss/>einen, 
wie ich meine interessanten Beitrag zur Frage „Was sind eigentlich
Daten?“ geschrieben, der aufzeigt, wie chaotisch man in diesem 
Bereich mit
fundamentalen Begriffen wie Information oder Daten umgeht.
Seit dem das Internet mit immer mehr Daten von Laien zugeschüttet 
wird,
ist es nicht verwunderlich, dass wir dort fast jeden Unsinn finden 
können,
den sich Menschen (insbesondere unter Pseudonymen) ausdenken und 
ins Netz
bringen. Hier jede Nachricht auf Evidenz zu prüfen ist nicht immer 
einfach.
Darum finden wir in den letzten Jahrzehnten immer häufiger unsinnige
Definitionen für Begriffe wie Daten, Information, Wissen etc. Dazu 
kommt,
dass mit einer wachsenden Wissenschaft und einer zunehmenden
Spezialisierung der Wissenschaftler immer mehr Spezialisten auf einem
Gebiet, die Laien auf vielen anderen Gebieten sind.
Obwohl es also legitim und wichtig ist, bei der Frage „Was sind 
eigentlich
Daten?“ dies reviewartig zu hinterfragen, zeigt J. Voß, dass man 
bei den
verschiedenen Autoren, immer wieder prüfen muss, was sie nun gerade 
gemeint
haben. Was allerdings schwierig wird, wen die Autoren soelbst nur sehr
diffuse Vorstellungen entwickeln. Andererseits ist es schon 
bedenklich,
wenn R. L. Gray in seinem Rückblick auf die Entwicklung der 
Begriffe Daten
und Information, die eindeutig wichtigste Quelle (Shannon und 
Weaver 1949)
ignoriert. Denn das wurde im zweiten Weltkrieg bei der Chiffrierung 
und
Dechiffrierung von Nachrichten rasch klar, dass jede Nachricht aus
grundsätzlich drei Grundelementen besteht, der Information, dem 
Rauschen
und der Redundanz. Das Wort Nachricht war damit der Oberbegriff 
dieser drei
Unterbegriffe. Auch die Erkenntnis, dass man jede Nachricht 
grundsätzlich
in binary digits zerlegen und damit in Bits messen kann, fand rasch 
Eingang
in die ersten Computer, bei denen man aber weniger von
Nachrichtenverarbeitung als vielmehr von Datenverarbeitung sprach. 
Damit
konnte man Daten sammeln, speichern, verarbeiten, verschicken etc. Der
Begriff Daten war also nach dem Weltkrieg, als diese Erkenntnisse 
nichtmehr
geheim waren, eindeutig der Oberbegriff von Information, Rauschen und
Redundanz, insbesondere in digitaler Form. Da aber alle 
Nachrichten, wie
Zahlen, Texte, Bilder, Töne oder Metadaten digitalisierbar sind, 
wurde der
Begriff Daten damit sozusagen zum Top Term.
Die Fundamentale Erkenntnis von Shannon, der auf der Ebene der
Informationstheorie „Aspekte der Bedeutung explizit ausklammert“ 
wie Voss
richtig schreibt, war gerade bei der anfänglichen Computerisierung
bemerkenswert, weil man die Daten ohne jede Semiotik (die 
Wissenschaft von
der Bedeutung von Zeichen) verarbeiten konnte. Dieser nächste 
Schritt, der
Bedeutungsverarbeitung, und darauf aufsetzend der 
Wissensverarbeitung, ist
erst eine Entwicklung unserer heutigen Zeit. Die Aussage W. Weavers,
„information cannot be confused with meaning“ darf nicht als 
Nachteil der
Informationstheorie verstanden werden, sondern zeigt eine tiefere
Erkenntnis über die Tatsache, dass Information nicht mit 
Interpretation
verwechselt werden darf. Interpretation ist erst Gegenstand der 
sogenannten
Pragmatik in der Semiotik. Auch die Semiotk hat drei Unterbegriffe, 
die
Semantik (Zuordnung von Zeichen zu Gegenständen auf der 
Senderseite), die
Syntax (Zuordnung der Zeichen zueinander), und die Pragmatik
(Rekonstruktion der Zeichen zu ihren Gegenständen auf der 
Empfängerseite).
Das hat seine Entsprechung zu Shannons Kommunikationsmodell mit 
Sender,
Übertragungskanal und Empfänger, aber auf der nächst höheren 
(semiotischen)
Ebene. Während auf der Wissensebene noch die Begründung einer 
Information
hinzu kommt. Sie ist eine a priori Redundanz, weil wir beim Wissen als
Empfänger auch Informationen vorhersagen können, soweit sie sich 
aus dem
zuvor gesendeten logisch oder erfahrungsgemäß ableiten lassen.
MfG
Walther Umstätter
--
http://www.inetbib.de
--
http://www.inetbib.de