[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Re: [InetBib] Bedeutung von XML (war bibliojobs ... VAB)



Liebe Frau Payer, liebe Kolleginnen und Kollegen,

mir geht es in der Tat nicht darum, eine theoretische Abhandlung über 
RDA zu schreiben, sondern eine ganz praktische Einführung zum 
Katalogisieren mit RDA - sozusagen ein Pendant zum Haller/Popst (wenn 
auch deutlich anders aufgezogen). Entsprechend geht es in erster Linie 
um die Erläuterung wichtiger RDA-Regeln anhand konkreter Beispiele. Es 
wird natürlich auch allgemeinere Kapitel geben, und da kommt dann auch 
mal das Semantic Web vor.

Die Formatfreiheit von RDA ist ein wichtiger Punkt: RDA definiert 
Elemente und deren Inhalte, gibt aber kein Erfassungsformat vor. 
Entsprechend wird auch das Lehrbuch in seinem Hauptteil "formatfrei" 
sein; beispielhafte Umsetzungen in konkrete Erfassungsformate sind dann 
eher was für einen Anhang.

Insgesamt darf man sich den Umstieg auf RDA m.E. nicht als 
"revolutionär" vorstellen: Zumindest in der ersten Umsetzung werden für 
RDA dieselben Formate verwendet werden wie bisher. D.h. die 
angloamerikanische Welt wird weiter in MARC 21 katalogisieren (trotz der 
bekannten Schwierigkeiten) und wir entsprechend mit vorhandenen 
Internformaten wie z.B. Pica. Sicher werden bei uns ein paar neue 
Felder, Codes etc. eingeführt werden, aber die Datensätze werden 
trotzdem recht ähnlich aussehen wie bisher. Denn es gilt ja auch die 
Vorgabe, dass RDA in Deutschland im Szenario 2 implementiert wird, d.h. 
die Ebenen Werk, Expression und Manifestation werden nicht auseinander 
gezogen, sondern liegen weiterhin in "vermischten" Titeldatensätzen vor.

Längerfristig kann sich daran natürlich schon manches ändern. So bin ich 
gespannt, was bei der Bibframe-Initiative
herauskommen wird. Es wurde ja vor einiger Zeit verkündet, dass die 
Firma Zepheira damit beauftragt wurde, "to translate the MARC 21 format 
to a Linked Data (LD) model while retaining as much as possible the 
robust and beneficial aspects of the historical format".
http://www.loc.gov/marc/transition/news/modeling-052212.html
Erste Strategien sind offenbar im Juni auf der ALA Conference 
präsentiert worden:
http://zepheira.com/2012/06/zepheira-to-present-on-linked-data-marc21-modeling-at-ala-annual/
Leider habe ich nichts darüber herausfinden können, was Eric Miller bei 
dieser Gelegenheit verkündet hat (hat vielleicht jemand einen 
einschlägigen Link?).

Ich halte es für gut möglich, dass irgendwann einmal die _primäre_ Form 
von Katalogdaten wirklich nicht mehr Datensätze sind, wie wir sie heute 
kennen, sondern einzelne Aussage-Tripel. Bei der Erfassung wird man 
allerdings, nehme ich an, weiterhin immer eine größere Zahl solcher 
Aussagen gleichzeitig erfassen. Denn wenn man ein konkretes Medium 
katalogisiert, hat man zwangsläufig ein ganzes Bündel von Aussagen vor 
sich, die man sinnvollerweise gleichzeitig festhält (sofern sie nicht 
schon von anderswoher geliefert werden). Beim Recherchierenden kommt 
dann aber wahrscheinlich nicht mehr ein vorher genau festgelegtes Paket 
von Informationen an, sondern je nach Fragestellung nur bestimmte 
Aussagen, die u.U. auch aus mehreren Quellen stammen. So reime ich mir 
das zumindest zusammen...

Mir vorzustellen, mit welchen Werkzeugen dann gearbeitet werden könnte, 
fällt mir noch sehr schwer. Braucht man weiterhin Datenbanken (aber eben 
eine andere Form davon - wenn ich's recht verstehe, ist auch ein 
Triplestore eine Datenbank), oder kann man die Daten irgendwie noch 
unmittelbarer im Semantic Web erfassen und halten? Zumindest stelle ich 
mir vor, dass die verteilten Daten (wo auch immer sie dann tatsächlich 
physisch liegen) in anderer Weise miteinander interagieren, so dass man 
nicht mehr sagen kann: "Ich suche jetzt im Datenpool X und nachher 
probiere ich es noch im Datenpool Y".

Viele Grüße
Heidrun Wiesenmüller

P.S.: Ja, ich weiß, ich hatte gesagt, dass ich nix mehr sage und jetzt 
habe ich's doch gemacht. Aber man beachte, dass "XML" in diesem Beitrag 
nicht vorkam ;-)




Am 02.09.2012 17:24, schrieb Margarete Payer:
Lieber Herr Umstätter,

wenn Frau Wiesenmüller Ihrem Wunsch nachkäme, müsste sie ein Lehrbuch zu
den Möglichkeiten des Semantic Web schreiben. Die RDA will ja ein
Regelwerk sein, das in jeglicher neuen Datenbanktechnologie angewendet
werden kann.

Einen Hinweis, dass das heutige MARC-Format die RDA nicht voll abbilden
kann, wird sich wohl nicht umgehen lassen.

Schöne Grüße
Margarete Payer

Liebe Frau Wiesenmüller,

es gibt verschiedene Gründe sich hier nicht mehr äußern zu wollen (bzw.
können)
und so respektiere ich die ihren.

Für das RDA-Lehrbuch kann man ja nur viel Erfolg wünschen!

Da wir im Prinzip schon bei dem Thema waren, würde ich, wie Sie sich
denken können, RDA nicht ohne Blick auf XML behandeln.

Daher hier nur die Anregung:
http://tsig.wikispaces.com/file/view/Future+of+cataloguing+for+wiki.ppt
“Future of Cataloguing: how RDA positions us for the future”
“RDA = content standard can be used with web-friendly encoding schema,
based on XML."

bzw.

http://unllib.unl.edu/LPP/PNLA%20Quarterly/moehrle76-4.pdf
“Sally McCallum of the Library of Congress defined 9 format
characteristics of MARC in her lecture titled "MARC Forward": "XML;
Granularity; Versatility; Extensibility; Hierarchy support; Crosswalks;
Tools; Cooperative management; Pervasive" (2007, p. 3). It's clear any
replacement for MARC 21 will need these characteristics, and more.”


Dazu auch die Einschätzung der Bibliotheksberaterin Karen Coyle.
“There is sometimes the assumption that the future data carrier for
library data will be XML. I think this assumption may be misleading and
I'm going to attempt to clarify how XML may fit into the library data
future.”
http://kcoyle.blogspot.de/2011/09/xml-and-library-data-future.html

bzw. "RDA in XML - why not give it a shot?"
http://kcoyle.blogspot.de/2011/07/rda-in-xml-why-not-give-it-shot.html

Es wird also bezüglich XML auf drei Probleme ankommen:
1.   Mit welcher DTD kann man RDA am besten ausschöpfen (Verhältnis zu
JATS NISO Z39.96-2012
http://www.niso.org/apps/group_public/download.php/8975/z39.96-2012.pdf
)?
2.   Wie leistungsfähig werden XML-Native-Datenbanken (oder auch Google)
diese DTD recherchieren können,
wenn wir in diesem Bereich endlich die Ebene der relationalen
Datenbanken überwunden haben.
3. Wird es noch vor dieser XML-Nutzung eine Abzweigung der Entwicklung
z.B zu Turtle (Terse RDF Triple Language) geben.

Dass es verschiedene Philosophien in der Wissensverarbeitung und den
Ontologien (für die ja die Semantik Voraussetzung ist) gibt, ist
bekannt.
Als dokumentarisch denkender Mensch, war mir das Konzept der Dokumente
mit Frames und Slots immer näher als die Triple languages, da sich mit
struktirierten Dokumenten ein Objekt beschreiben lässt (aus
archivarischen und historischen Gründen am besten in reiner ASCII bzw.
UNICODE-Form, wie bei SGML), bei dem dann Interferenzmaschinen sich in
einer Art Datamining das an Information herausfiltern können, was sie
für ihre Entscheidungen brauchen. Also beispielsweise welche Rechte ein
Fragesteller bei einem Dokument hat, was er sehen oder hören darf, was
er dafür zahlen muss oder wie weit er es weiter verwenden darf, um nur
ein Beispiel zu nennen.

"In etlichen Bibliotheken gibt es dazu Dateien, beispielsweise mit
Ampelanzeigen, die mit rot (ohne Bibliothekszugang), gelb (einige
Aufsätze zugänglich) und grün (Bibliothekszugang) den Zugang für jeden
Benutzer signalisieren. Dahinter stehen Dateien, auch Knowledge Bases
genannt, die jeweils prüfen, welche Zugriffsrechte das jeweilige
Terminal zur Zeit hat. Da diese Rechte immer wieder verändert sein
können und über unterschiedliche Kanäle erworben werden (so verkaufen
große Verlage ihre Zugriffsrechte auf Publikationen gern im Paket), sind
die Ampelangaben nicht immer korrekt, da die Benutzer über verschiedene
Verträge der Bibliothek unterschiedliche Zugangsberechtigungen beim
Linkresolver SFX bekommen. Damit ist der Zugang bzw. die Zugangsprozedur
von verschieden Terminals nicht immer identisch. Im Prinzip vergleicht
SFX die Zugangsrechte bei einer URL mit den Lizenzrechten der Bibliothek
und deren Benutzerkennungen." (Lehrb. Bibliotheksmanagement S. 81) Schon
heute hat jede Bibliothek das Problem herauszufinden, welche Rechte ihre
Benutzer welchen digitalen Dokumenten gegenüber haben. Dabei geht es um
viel Geld.

Die Bevorzugung von Tripeln in Ontologien ist ähnlich der bei
relationalen Datenbanken. Sie sind einfacher und bekannter, aber damit
nicht unbedingt besser als Frames und Slots. Das gilt insbesondere für
den Bibliotheksbereich.

Frames und Slots hat die NLM schon beim Unified Medical Language System
(UMLS) benutzt. (
http://pubmedcentralcanada.ca/pmcc/articles/PMC2245463/pdf/procascamc00016-0196.pdf
), obwohl damals H. Warner noch kein XML zur Verfügung stand.


Mit freundlichen Grüßen

Walther Umstätter




-- 
---------------------
Prof. Heidrun Wiesenmüller M.A.
Hochschule der Medien
Fakultät Information und Kommunikation
Wolframstr. 32, 70191 Stuttgart
Tel. dienstl.: 0711/25706-188
Tel. Home Office: 0711/36565868
Fax. 0711/25706-300
www.hdm-stuttgart.de/bi

-- 
http://www.inetbib.de

Listeninformationen unter http://www.inetbib.de.