[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Re: [InetBib] „Was sind eigentlich Daten?“



Lieber Herr Umstätter,
zunächst vielen Dank für den Hinweis auf die interessante Darstellung von
Jakob Voß, worin Ballsun-Stantons Punkt der “data as communications” wohl
für die Informationswissenschaft am treffendsten zu sein scheint. Ansonsten
kann nur beigepflichtet werden, dass das jeweilige Verständnis in unserer
multidisziplinären Welt ggf. erst eruiert werden muss.
Leider gibt es keinen Bezug zu Wersig oder Kuhlen, die Information als
etwas mehr als Daten ansehen, nämlich als interpretierbare,
handlungsrelevante Daten. Auch Sie führen leider den Informationsbegriff
nur auf Shannon-Weaver zurück, wo es sich in der Tat nur um formale Bits
handelt. Hier könnte man vielleicht sagen, dass diese schon den Begriff
‚Information‘ vielleicht irreführend verwendet haben. Selbst der Begriff
‚Nachricht‘ setzt eigentlich eine Interpretationsfähigkeit dieser voraus,
denn sie ist ja an einen (als verstehend vorausgesetzten) Empfänger
gerichtet. Gravierender ist meines Erachtens die Abgrenzung gegenüber
‚Wissen‘. Dies sollte mehr als ‚Information‘ sein: umfangmäßig, in der
wissenschaftlichen Absicherung, in der kausalen Vernetzung. Hier liegt
derzeit wohl die größte Problematik, dass ständig von ‚Wissen‘ gesprochen
wird, obwohl nur ‚Information‘ geliefert, verarbeitet etc. wird – von
Erkenntnis ganz zu schweigen, die zusätzlich eine transzendentale Qualität
aufweist.


Am 12. Oktober 2013 13:14 schrieb h0228kdm <h0228kdm@xxxxxxxxxxxxxxxx>:

Jakob Voss hat in LIBREAS 
http://libreas.eu/ausgabe23/**02voss/<http://libreas.eu/ausgabe23/02voss/>einen,
 wie ich meine interessanten Beitrag zur Frage „Was sind eigentlich
Daten?“ geschrieben, der aufzeigt, wie chaotisch man in diesem Bereich mit
fundamentalen Begriffen wie Information oder Daten umgeht.

Seit dem das Internet mit immer mehr Daten von Laien zugeschüttet wird,
ist es nicht verwunderlich, dass wir dort fast jeden Unsinn finden können,
den sich Menschen (insbesondere unter Pseudonymen) ausdenken und ins Netz
bringen. Hier jede Nachricht auf Evidenz zu prüfen ist nicht immer einfach.
Darum finden wir in den letzten Jahrzehnten immer häufiger unsinnige
Definitionen für Begriffe wie Daten, Information, Wissen etc. Dazu kommt,
dass mit einer wachsenden Wissenschaft und einer zunehmenden
Spezialisierung der Wissenschaftler immer mehr Spezialisten auf einem
Gebiet, die Laien auf vielen anderen Gebieten sind.

Obwohl es also legitim und wichtig ist, bei der Frage „Was sind eigentlich
Daten?“ dies reviewartig zu hinterfragen, zeigt J. Voß, dass man bei den
verschiedenen Autoren, immer wieder prüfen muss, was sie nun gerade gemeint
haben. Was allerdings schwierig wird, wen die Autoren soelbst nur sehr
diffuse Vorstellungen entwickeln. Andererseits ist es schon bedenklich,
wenn R. L. Gray in seinem Rückblick auf die Entwicklung der Begriffe Daten
und Information, die eindeutig wichtigste Quelle (Shannon und Weaver 1949)
ignoriert. Denn das wurde im zweiten Weltkrieg bei der Chiffrierung und
Dechiffrierung von Nachrichten rasch klar, dass jede Nachricht aus
grundsätzlich drei Grundelementen besteht, der Information, dem Rauschen
und der Redundanz. Das Wort Nachricht war damit der Oberbegriff dieser drei
Unterbegriffe. Auch die Erkenntnis, dass man jede Nachricht grundsätzlich
in binary digits zerlegen und damit in Bits messen kann, fand rasch Eingang
in die ersten Computer, bei denen man aber weniger von
Nachrichtenverarbeitung als vielmehr von Datenverarbeitung sprach. Damit
konnte man Daten sammeln, speichern, verarbeiten, verschicken etc. Der
Begriff Daten war also nach dem Weltkrieg, als diese Erkenntnisse nichtmehr
geheim waren, eindeutig der Oberbegriff von Information, Rauschen und
Redundanz, insbesondere in digitaler Form. Da aber alle Nachrichten, wie
Zahlen, Texte, Bilder, Töne oder Metadaten digitalisierbar sind, wurde der
Begriff Daten damit sozusagen zum Top Term.

Die Fundamentale Erkenntnis von Shannon, der auf der Ebene der
Informationstheorie „Aspekte der Bedeutung explizit ausklammert“ wie Voss
richtig schreibt, war gerade bei der anfänglichen Computerisierung
bemerkenswert, weil man die Daten ohne jede Semiotik (die Wissenschaft von
der Bedeutung von Zeichen) verarbeiten konnte. Dieser nächste Schritt, der
Bedeutungsverarbeitung, und darauf aufsetzend der Wissensverarbeitung, ist
erst eine Entwicklung unserer heutigen Zeit. Die Aussage W. Weavers,
„information cannot be confused with meaning“ darf nicht als Nachteil der
Informationstheorie verstanden werden, sondern zeigt eine tiefere
Erkenntnis über die Tatsache, dass Information nicht mit Interpretation
verwechselt werden darf. Interpretation ist erst Gegenstand der sogenannten
Pragmatik in der Semiotik. Auch die Semiotk hat drei Unterbegriffe, die
Semantik (Zuordnung von Zeichen zu Gegenständen auf der Senderseite), die
Syntax (Zuordnung der Zeichen zueinander), und die Pragmatik
(Rekonstruktion der Zeichen zu ihren Gegenständen auf der Empfängerseite).
Das hat seine Entsprechung zu Shannons Kommunikationsmodell mit Sender,
Übertragungskanal und Empfänger, aber auf der nächst höheren (semiotischen)
Ebene. Während auf der Wissensebene noch die Begründung einer Information
hinzu kommt. Sie ist eine a priori Redundanz, weil wir beim Wissen als
Empfänger auch Informationen vorhersagen können, soweit sie sich aus dem
zuvor gesendeten logisch oder erfahrungsgemäß ableiten lassen.

MfG
Walther Umstätter

--
http://www.inetbib.de
-- 
http://www.inetbib.de


Listeninformationen unter http://www.inetbib.de.