[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Re: [InetBib] „Was sind eigentlich Daten?“



Am 2013-10-12 16:06, schrieb Peter Ohly:
Lieber Herr Umstätter,
zunächst vielen Dank für den Hinweis auf die interessante Darstellung von Jakob Voß, worin Ballsun-Stantons Punkt der “data as communications” wohl
für die Informationswissenschaft am treffendsten zu sein scheint.

Das war ja schon bei Shannon die Ausgangssituation, bei seiner
"Mathematical Theory of Communication". Auch die oft wiederholte Aussage, Informmation sei die Beseitigung von Ungewissheit, ist nur ein Teilaspekt aus Shannons Informationstheorie.

Ansonsten kann nur beigepflichtet werden, dass das jeweilige Verständnis in unserer
multidisziplinären Welt ggf. erst eruiert werden muss.
Leider gibt es keinen Bezug zu Wersig oder Kuhlen, die Information als
etwas mehr als Daten ansehen, nämlich als interpretierbare,
handlungsrelevante Daten.

Darum habe ich ja versucht deutlich zu machen, dass wir Information und Interpretation nicht verwechseln dürfen. Die Interpretation liegt erst auf der Ebene der Semiotik (bzw. wie es oft heißt, der Semantik, obwohl Semantik ohne Pragmatik und Syntax eigentlich keinen Sinn ergibt. Ähnlich wie Information ohne ausreichend Redundanz sinnlos und zu ungesichert bleibt.) Zu Kuhlens "pragmatischem Primat" mit der Aussage "Information ist Wissen in Aktion", habe ich mich bereits mehrfach geäußert. Außerdem denke ich hier ebenso wie Sie, dass Information "die Abgrenzung gegenüber ‚Wissen‘" braucht, und somit keine spezielle Teilmenge von Wissen sein kann.

Auch Sie führen leider den Informationsbegriff
nur auf Shannon-Weaver zurück, wo es sich in der Tat nur um formale Bits
handelt.

Das ist der weit verbreitete Fehler, dass die Theorie von Shannon im Laufe der Zeit mit zu viel Unsinn zugeschüttet wurde. Das Bit war und ist ein Maß zur Messung jedweder Information, von Noise, Redundanz und Wissen. Auch beispielsweise des Wissens, das die Evolution über Jahrmillionen auf ihrer DNS hoch redundant gespeichert hat, damit die Arten überleben können. Ebeso kann auch das Wissen in unseren Gehirnen nur in Bit gemessen werden, weil es kein anderes Maß gibt. Im Gegensatz zum höchst anthropozenrischen MKS-System ist das Bit eine natürliche Einheit, die die auffällige Eigenschaft besitzt nicht linear, wie Meter, Kilogram und Sekunde skaliert zu sein, sondern exponetiell. So sind bekanntlich 10 Bit nicht das Zehnfache von einem Bit, sondern das 2^10, 1024-fache. Das ist auch kosmologisch interessant, weil es Überlegungen gibt, ob nicht auf der Oberfläche unseres Universums die gesamte Information in diesem Universum, mit seiner gesamten Geschichte holographisch gespeichert sein könnte. Ein faszinierender Gedanke der Informationstheorie.

Hier könnte man vielleicht sagen, dass diese schon den Begriff
‚Information‘ vielleicht irreführend verwendet haben. Selbst der Begriff ‚Nachricht‘ setzt eigentlich eine Interpretationsfähigkeit dieser voraus,
denn sie ist ja an einen (als verstehend vorausgesetzten) Empfänger
gerichtet.

Genau das ist der Unterschied zwischen Information und Interpretation.
Wenn wir aber diese informationstheoretische Ebene und semiotische Ebene nicht klarer trennen, haben wir permanent all die Unklarheiten und Widersprüche, die wir in unserer Zunft täglich beobachten. Man kann Information auch verarbeiten ohne ihre Bedeutung zu verstehen!

Gravierender ist meines Erachtens die Abgrenzung gegenüber
‚Wissen‘. Dies sollte mehr als ‚Information‘ sein: umfangmäßig, in der
wissenschaftlichen Absicherung, in der kausalen Vernetzung. Hier liegt
derzeit wohl die größte Problematik, dass ständig von ‚Wissen‘ gesprochen
wird, obwohl nur ‚Information‘ geliefert, verarbeitet etc. wird – von
Erkenntnis ganz zu schweigen, die zusätzlich eine transzendentale Qualität
aufweist.

Genau das ist auch mein Anliegen. Wissen als begründete Information hat je nach Begründungstiefe Zuverlässigkeit und Vorhersehbarkeit, um Gefahren aus dem Weg zu gehen. Auch wenn uns die Informationstheorie deutlich macht, dass es keine absolute Gewissheit geben kann, so gibt es Wissen erstaunlich hoher Sicherheit, Präzision und Vorausschau.

MfG
Walther Umstätter


Am 12. Oktober 2013 13:14 schrieb h0228kdm <h0228kdm@xxxxxxxxxxxxxxxx>:

Jakob Voss hat in LIBREAS http://libreas.eu/ausgabe23/**02voss/<http://libreas.eu/ausgabe23/02voss/>einen, wie ich meine interessanten Beitrag zur Frage „Was sind eigentlich Daten?“ geschrieben, der aufzeigt, wie chaotisch man in diesem Bereich mit
fundamentalen Begriffen wie Information oder Daten umgeht.

Seit dem das Internet mit immer mehr Daten von Laien zugeschüttet wird, ist es nicht verwunderlich, dass wir dort fast jeden Unsinn finden können, den sich Menschen (insbesondere unter Pseudonymen) ausdenken und ins Netz bringen. Hier jede Nachricht auf Evidenz zu prüfen ist nicht immer einfach.
Darum finden wir in den letzten Jahrzehnten immer häufiger unsinnige
Definitionen für Begriffe wie Daten, Information, Wissen etc. Dazu kommt,
dass mit einer wachsenden Wissenschaft und einer zunehmenden
Spezialisierung der Wissenschaftler immer mehr Spezialisten auf einem
Gebiet, die Laien auf vielen anderen Gebieten sind.

Obwohl es also legitim und wichtig ist, bei der Frage „Was sind eigentlich Daten?“ dies reviewartig zu hinterfragen, zeigt J. Voß, dass man bei den verschiedenen Autoren, immer wieder prüfen muss, was sie nun gerade gemeint
haben. Was allerdings schwierig wird, wen die Autoren soelbst nur sehr
diffuse Vorstellungen entwickeln. Andererseits ist es schon bedenklich, wenn R. L. Gray in seinem Rückblick auf die Entwicklung der Begriffe Daten und Information, die eindeutig wichtigste Quelle (Shannon und Weaver 1949) ignoriert. Denn das wurde im zweiten Weltkrieg bei der Chiffrierung und
Dechiffrierung von Nachrichten rasch klar, dass jede Nachricht aus
grundsätzlich drei Grundelementen besteht, der Information, dem Rauschen und der Redundanz. Das Wort Nachricht war damit der Oberbegriff dieser drei Unterbegriffe. Auch die Erkenntnis, dass man jede Nachricht grundsätzlich in binary digits zerlegen und damit in Bits messen kann, fand rasch Eingang
in die ersten Computer, bei denen man aber weniger von
Nachrichtenverarbeitung als vielmehr von Datenverarbeitung sprach. Damit
konnte man Daten sammeln, speichern, verarbeiten, verschicken etc. Der
Begriff Daten war also nach dem Weltkrieg, als diese Erkenntnisse nichtmehr
geheim waren, eindeutig der Oberbegriff von Information, Rauschen und
Redundanz, insbesondere in digitaler Form. Da aber alle Nachrichten, wie Zahlen, Texte, Bilder, Töne oder Metadaten digitalisierbar sind, wurde der
Begriff Daten damit sozusagen zum Top Term.

Die Fundamentale Erkenntnis von Shannon, der auf der Ebene der
Informationstheorie „Aspekte der Bedeutung explizit ausklammert“ wie Voss
richtig schreibt, war gerade bei der anfänglichen Computerisierung
bemerkenswert, weil man die Daten ohne jede Semiotik (die Wissenschaft von der Bedeutung von Zeichen) verarbeiten konnte. Dieser nächste Schritt, der Bedeutungsverarbeitung, und darauf aufsetzend der Wissensverarbeitung, ist
erst eine Entwicklung unserer heutigen Zeit. Die Aussage W. Weavers,
„information cannot be confused with meaning“ darf nicht als Nachteil der
Informationstheorie verstanden werden, sondern zeigt eine tiefere
Erkenntnis über die Tatsache, dass Information nicht mit Interpretation verwechselt werden darf. Interpretation ist erst Gegenstand der sogenannten Pragmatik in der Semiotik. Auch die Semiotk hat drei Unterbegriffe, die Semantik (Zuordnung von Zeichen zu Gegenständen auf der Senderseite), die
Syntax (Zuordnung der Zeichen zueinander), und die Pragmatik
(Rekonstruktion der Zeichen zu ihren Gegenständen auf der Empfängerseite). Das hat seine Entsprechung zu Shannons Kommunikationsmodell mit Sender, Übertragungskanal und Empfänger, aber auf der nächst höheren (semiotischen) Ebene. Während auf der Wissensebene noch die Begründung einer Information
hinzu kommt. Sie ist eine a priori Redundanz, weil wir beim Wissen als
Empfänger auch Informationen vorhersagen können, soweit sie sich aus dem
zuvor gesendeten logisch oder erfahrungsgemäß ableiten lassen.

MfG
Walther Umstätter

--
http://www.inetbib.de

--
http://www.inetbib.de

Listeninformationen unter http://www.inetbib.de.