[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Re: [InetBib] Hashtag Erschließung



Lieber Herr Gödert,

für ein Beispiel des sprießenden Genres “xy schafft sich ab” ist Ihr Text eher
zahm geraten. Eigentlich wollte ich daher noch etwas sticheln oder nachtreten,
das ist aber auch nicht so einfach. Ich muss zugeben, dass ich nach Lektüre
Ihres Beitrags und sogar nun, nach Formulierung einiger Kommentare dazu mir
immer noch nicht im Klaren darüber bin, ob ich den pessimistischen Tenor, den
ich herauszulesen glaube, nun teile oder nicht…

Sie schreiben auf Seite 2:

    Mit dem Eintreten einer derartigen Entwicklung würde insofern Neuland
    beschritten,
    als es nun gar nicht mehr in die Hand eines lokalen Anwenders gelegt ist, 
den
    großen Pfad zu betreten oder einem traditionellen Aufgabenbereich durch
    alternative
    Verfahrensweisen zu entsprechen. Die Entfernung zum Mainstream-Verfahren und
    die damit verbundenen Aufwände würden so groß, dass für kleine Anwender 
keine
    Brücke mehr geschlagen werden kann. Vermutlich wird über kurz oder lang auch
    jede
    bislang noch vorhandene Software-Alternative für lokale Anwender in Frage
    stehen.
    Bleibt dann nur noch die Alternative des Anfertigens von Titelnachweisen für
    lokale
    Umgebungen mit Hilfe einer Textverarbeitung?

Traditionell ist “Erschließung” Technologie-agnostisch gewesen, RAK-Katalogisate
kann man auch handschriftlich in Kladden eintragen (viele OPACs und
Erfassungsumgebungen sowieso zeigten aber nie die RAK-vorgeschriebene
Interpunktion, “Katalogisierung nach den RAK-WB” hat also in den letzten 30
Jahren bereits eine andere Ebene als die der reinen Präsentation betroffen).
Neuere Regelwerke befassen sich stärker mit “Daten”, man kann das als
Emanzipation oder Abstraktion vom Träger “Papier” sehen, oder im Gegenteil als
/Einführung/ einer zusätzlichen, technologischen Zwangsjacke. Jedenfalls wird
anerkannt, dass es zunehmend weniger um Präsentation geht /und/ dass
professionelles Arbeiten eigentlich nicht mehr isoliert funktionieren kann,
sondern eine Infrastruktur erfordert. In Form gemeinsamer Regelwerke und
Standards, auch solchen zum “Datentausch”, ist “Infrastruktur” nichts wirklich
neues für uns, aber mit der Pflicht(?), sich etwa mit Normdaten und
“Anreicherungen” auseinanderzusetzen kommt nun m.E. eine logistische Ebene der
Content-Verteilung mit ins Spiel, die (Musik und Film haben es vorgemacht) für
finanzstarke Anbieter eine attraktive Investition zu sein scheint und
Konzentrationsprozesse begünstigt. Da es mit der Interoperabilität (nicht nur im
Bibliotheksbereich) trotz Standards oft hakt, haben gewisse Standards und
Systeme dann Vorteile, d.h. Konzentrationsprozesse schlagen dann auf andere
Ebenen durch…

auf Seite 3f.:

    Ordnet sich ein Anwendungsfeld dem Primat des technisch Machbaren unter, so
    wird das technisch Machbare möglicherweise genutzt, um über die Frage zu
    befinden,
    welche inhaltlichen Probleme zukünftig zu bearbeiten sein werden. Ein sich
    selbst als
    vital verstehendes Anwendungsfeld wird es nie zu diesem Umschlagpunkt kommen
    lassen, sondern die unter Einsatz technischer Konzepte zu bearbeitenden 
Probleme
    dem Primat der fachlichen Erfordernisse nachordnen, erst recht die Auswahl
    und das
    Leistungsspektrum der einzusetzenden technischen Vorgehensweisen.

Ich weiss nicht, ob das den Punkt trifft: Wenn wir ISBD-Displays oder
Permutationsmuster für RSWK-Ketten als Beispiele betrachten, handelt es sich
nicht um softwaretechnische “rocket science” und dennoch ist es zu Entwicklungen
gekommen, wo sich — neutral gesagt — “die Regeln” stärker auf “die Technik”
zubewegt haben als umgekehrt. Dass sich bibliothekarische Softwarehersteller
absolut ignorant gegenüber den jahrzehntelang artikulierten Bedürfnissen ihrer
Kunden zeigen, wird etwa auf der AUTOCAT-Liste regelmäßig beklagt, und ein
ausgesprochenes Ziel der Entwicklung neuer Regeln und Datenformate ist, durch
Adaption von Mainstream-Technologien den in Schieflage geratenen /Markt/
aufzubrechen. “Mainstream” ist dabei als der “echte” Mainstream zu denken, nicht
der “bibliothekarische Mainstream”, der sich traditionell eher an der kleinsten
gemeinsamen Fähigkeit aller Akteure definiert…

Abschnitt 4:
vielen Dank für den historischen Abriss der Formalerschließung, jemand wie ich,
der nie zur Bibliotheksschule gegangen ist, weiss das sehr zu schätzen…
Herausgreifen möchte ich

    Großes Interesse galt der Zusammenführung unterschiedlicher Ausgaben eines
    Werkes.

So wie Sie es schildern, hatte sich das Problem im 19. Jahrhundert zunehmend von
selber erledigt, indem Titel “zitierfaehiger” wurden und insgesamt der Trend zur
“Personalisierung” von Werken aufkam: Einheitstitel etwa gehören zwar zu unseren
historischen Werkzeugen, ausserhalb der Katalogisierung von Musikalien wurden
sie aber nach meinem Eindruck nie so stringent genutzt, dass man sich heute
darauf verlassen könnte. Mit dem Aufkommen von (parallelen) eBooks wird die
Aufgabe des Zusammenführens nun über die allfälligen Übersetzungen hinaus zu
einem fast universellen Problem…

Einhaken möchte ich aber auf Seite 7, wo Sie in der Gegenwart ankommen:

    Durchgreifender wurde die Hintanstellung ergonomischer Überlegungen 
gegenüber
    hard- und softwaretechnischen Standardlösungen zur Bedienung des 
Web-Standards.
    Noch schwerer wiegt unter Gesichtspunkten der fachlichen Identifikation,
    dass die
    Vorstellung von Titelbeschreibungen zur denkbar schlichtesten Form mutiert, 
dass
    die Frage der Anreicherung um Titelblatt-Cover wichtiger ist, als die
    Entwicklung
    bibliografischer Mindeststandards zur Differenzierung von Büchern in
    Treffermengen.
    Mehr und mehr löste sich das Anforderungsprofil an bibliografische Daten von
    der ehemals für selbstverständlich gehaltenen Vorstellung. Die 
bibliothekarische
    Profession sieht sich selbst nicht mehr als Maßstäbe setzend. Einen 
Eindruck von
    den Ergebnissen solcher Tendenzen kann man bei Recherchen im KVK gewinnen,
    wenn man sich Gedanken über Mehrfach-Anzeigen bei bibliografisch 
vergleichsweise
    schlichten Objekten macht. Es ist dies kein Problem des KVK, sondern der 
immer
    stärkeren Heterogenität der Datenquellen. Komplexere Objekte im Rahmen einer
    automatisierten Dublettenkontrolle zu identifizieren, wird mehr und mehr zu
    einer
    Wunschvorstellung bibliografisch Unbelehrbarer.

Jeder, der einmal einen Spezialbibliothekar getroffen hat, wird die Anekdoten
kennen, dass einem Benutzer sofort geholfen werden konnte, der lediglich wusste,
dass er letztes Jahr ein “blaues Buch” im Neuerwerbungsregal gesehen hatte. Ich
halte Cover-Scans für sehr nützliches Beiwerk im Katalog, aber leider ist auch
dies einer der Bereiche, wo die Content-Industrie uns die Spielregeln diktiert…

Die Frage ist auch, ob die “Beschreibung” nicht diverse Aspekte hat, von denen
einer ein möglichst getreues äußeres /Abbild/ des Beschriebenen ist und dieses
tatsächlich durch die denkbar schlichteste Vorgehensweise, nämlich die
technische Reproduktion, auf die beste Weise realisiert werden kann.

Dem Befund ist ansonsten nichts hinzuzufügen, ich sehe darin aber eine
Bankrotterklärung der traditionellen Regeln und Standards, die seit einigen
Jahren (nachdem die meisten größeren Retrokonversionen abgeschlossen sind und
die zugehörigen Daten ihren Weg in die Verbünde gefunden haben) sichtbar wird.
Nachdem man sich 100 Jahre lang gegenseitig bestätigt hat, wie überlegen die
hier praktizierte Katalogisierungsvariante für Mehrbändige Werke ist, muß
konstatiert werden, dass die dabei (oder nach Konversion) entstandenen
maschinenlesbaren Katalogisate bezüglich bibliographischer Identifikation eine
Harte Nuß sind (aus sich heraus eigentlich komplett unbrauchbar, aber mit
Heuristiken in sehr grossen Datenbeständen kann “man” gewiss allerhand tun, die
Ergebnisse werden aber nicht unserem aus der intellektuellen Produktion
gewohnten Niveau bibliographischer “Wahrheit” entsprechen)

Was die FRBR angeht, bin ich zuversichtlicher als Sie, was die Prognose für
zukünftige Entwicklungen angeht: Die Unterscheidung etwa zwischen Class-2 und
Class-3-Entities ‘’war’’ meines Erachtens der Trennung zwischen Formal- und
Sacherschließung geschuldet (Orte etwa kommen in der Formalerschließung vor,
werden aber nicht “angesetzt”, können daher im Modell keine relevante “Entität”
werden…) und soll demnächst abgeschafft werden; und für das Aufweichen der
Weltsicht, dass sich jegliche /ordnende/ Relation in ein Teil-Ganzes-Schema
pressen lässt, sehe ich auch noch Hoffnung.

Zu Abschnitt 5
Wenn Sie für die DDC eine “vorwiegende Orientierung an der Buchaufstellung”
herausarbeiten, dann ist eine wichtige Anforderung durch die Klassifikation
erfüllt, nämlich wenn Titel A und Titel B näher beieinander stehen (etwa sogar
unter derselben Systemstelle) als Titel A und Titel C, dann sind Titel A und
Titel B thematisch enger beeinander als Titel A und Titel C. Die
/Ausdrucksfähigkeit/ der Klassen (und speziell der Benennungen für die Klassen)
ist eigentlich ein davon völlig unabhängiger Aspekt. Wenn es mir gelingt, Titel
A zu finden (etwa weil ich ihn kenne oder er durch eine ganz banale
Stichwortsuche auffällt), dann kann ich seine Nachbarschaft sichten und finde
Titel B. Das ist so gesehen viel unmittelbarer, als wenn ich mir
vergegenwärtige, was das Thema sein könnte, das in eine Kunstsprache übersetze
und damit dann versuche, die “ausdrucksfähige” Klassenbenennung aufzuspüren.

Eine Frage an die Bibliothekswissenschaft wäre, inwieweit Veränderungen in der
wissenschaftlichen Produktion (ich denke da an interdisziplinäre Ansätze in
vielen Forschungsgebieten) aufgetreten sind, die diese (monohierarchische und
stark auf Serialisierung ausgelegte) Form klassifikatorischer Erschließung ganz
in Frage stellen: Mit einer gewissen Willkür, etwa dass innerhalb dieses Themas
geographische Unteraspekte stärker gruppieren als zeitliche, kann man sich ja
arrangieren, aber wenn für gegebene Zeit und Raum ein Thema Aspekte aus
verschiedene Disziplinen in Verbindung bringt, hat man vieldimensionale
“Nachbarschaften”, die wenn überhaupt klassifikatorisch dann nur
postkoordinierend in den Griff zu bekommen sind.

Die aktuellen Diskussionen um Data Mining bei Google, Facebook und NSA zeigen
m.E. deutlich, daß /Beziehungen/ das Gold unserer Tage sind: Ich muss nicht
wissen, “wer” Sie sind, noch nicht einmal, wie Sie heissen oder sich im Internet
nennen. Auch Augenfarbe und Kreditkartennummer sind uninteressant. Solange ich
genug Daten darüber habe, wie Sie sich verhalten, damit ich Sie in eine Gruppe
sich ähnlich verhaltender Individuen klassifizieren kann, und ich das momentane
Verhalten dieser Gruppe beobachte (die Kölner Männer suchen seit drei Tagen
verstärkt nach Hausmitteln gegen Schnupfen), dann kann ich /Ihr/ Verhalten
antizipieren und es für mich gewinnbringend einsetzen (Apothekenwerbung
schalten) bzw. auch beeinflussen (Werbung für eine bestimmte Apotheke schalten)…
Für mein Verständnis ist das alles ziemlich “semantisch” (es setzt zuverlässige
Identifikation voraus, stabile Klassenbildungen und aussagekräftige, d.h. am
Umsatz verifizierbare Ergebnisse) und “Kognition” wird eigentlich gar nicht
benötigt.

Enger an unserem Bereich können wir etwa VIAF beobachten, das durch
Datenverarbeitung alleine aus den Eingangsdaten “semantische” Zusammenhänge
aufspürt oder herstellt. Hier würde ich es so sehen, daß bereits in die
Erstellung der Ausgangsdaten unermesslich viel kognitiver Input geflossen ist
(all diese Identifikationen, zwischen Titeln und Personen, beim Aufspüren von
Lebensdaten in Klappentexten oder Nachschlagewerken), und — aber für den
Internationalen Kontext vielleicht nicht verwunderlich — das “Ansetzen” als
klassisch-bibliothekarische Tätigkeit gar nicht so hohen Einfluss hat (Eine
Ebene tiefer, bei den konkreten Normdateien, ist es allerdings gewiss nicht
unberechtigt).

Sie schreiben auf Seite 13 hierzu

    Sie [die Personen außerhalb der Bibliothekswelt, Th.B.] benutzen dafür
    allerdings Methoden und Verfahren, zum Beispiel statistische Auswertungen
    und Al-
    gorithmen, die weit jenseits der Kenntnisse und Fähigkeiten liegen, die
    üblicherweise
    von einem Mitglied der bibliothekarischen Profession eingebracht werden 
können.

Ich glaube eher nicht, dass der durchschnittliche Wohnzimmerbetreiber eines
Internetshops über im Vergleich zum ausgebildeten Bibliothekar tiefgehendere
Kenntnisse in Stochastik und/oder Computerlinguistik besitzt. Vielmehr denke
ich, dass es /Werkzeuge/ gibt, und zwar für ziemlich breite Einsatzgebiete, die
gewisse /Konfigurationsmöglichkeiten/ bieten: Diese kann jemand mit einer
gewissen Vorbildung bedienen, ein anderer belässt es lieber bei den
Default-Einstellungen. Und von dem Ross, dass es für jedes Werkzeug einen
zutiefst bibliothekarischen Grund gibt, warum es zwar etwas wunderbares ist,
aber leider, leider für bibliothekarische Daten vollkommen unbrauchbar, steigen
wir gerade langsam herunter (Es /gibt/ solche Defizite bibliothekarischer Daten
durchaus, z.B. in der immer noch anhaltenden Weigerung, die Sprache von der
Vorlage entnommenen Zeichenketten zu codieren, oder auch in dem Phänomen, dass
Sachtitel auch in der Vorlage nicht in ganzen Sätzen daherkommen).

Meines Erachtens dürfen sich sowohl Regelwerke als auch Curricula vom Stand der
Technik bei der Volltextindexierung beeindrucken lassen: Mit einem
Grundverständnis dafür können Bibliothekare verstehen, warum gewisse Regeln so
sind wie sie sind bzw. dass (und warum) sie nicht so sind, wie sie besser sein
sollten. Damit hat dann auch jede Diskussion über mögliche Entwicklungen von
Regelwerken oder Anforderungen an konkrete Bibliothekssysteme eine breitere
Grundlage.

Ganz am Anfang hatten Sie die “Cloud” m.E. als /Symptom/ einer gewissen
Entwicklung benannt, und dabei /Datenübernahme/ als suboptimale Betätigung
aufgeführt (wenn ich das mal so verstehen darf). Sind wir da nicht schon einen
Schritt weiter? Wenn Titel in Paketen lizensiert werden und die zugehörigen
Katalogisate en bloc übernommen werden, ist die individuelle Auseinandersetzung
mit den Titeln gar keine Option mehr. Und wenn das wegen der schwierigen
Verhandlugnen auch noch konsortial abgewickelt wird, sehe ich primär
Konsequenzen für den Bestandsaufbau. Ich stehe auf dem Standpunkt, dass die
“klassische” Bibliothek eine Sammlung im besten Sinne ist: Jedes Stück ist
bewusst erworben worden und hat einen Zweck, d.h. es wurde ausgewählt im
Hinblick auf die bestehende Sammlung und die Vorstellungen über ihre zukünftige
Entwicklung (das ist natürlich eine Ideale Bibliothek, die ich da beschreibe).
Die “Erschließung” hat nun auch die Aufgabe, die besondere Beziehung dieses
Stücks zur Sammlung herauszuarbeiten, in einem gewissen Sinn dokumentiert sie
dadurch auch die im Verlauf der Erwerbung getroffene Entscheidung. Ich sehe
nichts Verwerfliches darin, sich bei der intrinsischen Beschreibung überhaupt
keine Mühe zu geben, d.h. nach Möglichkeit Fremdleistungen unbesehen zu
importieren und im Zweifelsfall lieber ein gutes Photo als ein schlechtes
Eigenkatalogisat anzufertigen. /Meine/ Sammlung soll natürlich optimal
erschlossen sein, d.h. Konsistenz und Vollständigkeit der erschlossenen Aspekte
sind extrem wichtig - aber es sind die für /meine/ Sammlung entscheidenden
Aspekte und das könnte die Farbe des Einbands sein und vielleicht ausnahmsweise
einmal nicht die Fussnote zur Verfasserangabe. In ökonomisch schwierigen Zeiten
ist an einen traditionellen Bestandsaufbau vielleicht nicht mehr zu denken,
statt einen Fachreferenten zu bezahlen, der über die Verwendung der letzten
disponierbaren 1.000 Euro nachdenkt, sollte ich vielleicht lieber fast unbesehen
viele eBook-Pakete lizensieren /und/ deren Verwaltung nach aussen geben. Ist
mein Katalog dann noch halbwegs funktional, kann ich mich immerhin noch
nachträglich davon überraschen lassen, was ich alles “besitze”. Ohne geregelten
Bestandsaufbau macht “Erschließung” m.E. aber auch keinen Sinn mehr, eine solche
Bibliothek ist wirklich nur noch eine Filiale von ich-weiss-nicht-was (“der
Cloud”?). Mag sein, dass diese Entwicklung zwangsläufig ist und vielleicht sogar
gewollt, Bibliothekare brauchen wir dann jedenfalls überhaupt keine mehr und
jede weitere Diskussion ist müßig.

Bei der Lektüre Ihres Textes habe ich leider den Anknüpfungsfaden zu den
eingangs erwähnten /lokalen/ Erschließungspraktiken aus den Augen verloren.
Pikanterweise steht das “X” in “XML” für Extensible und die Graphentheoretiker
des Semantic Web gehen (eher unausgesprochen) von der Prämisse aus, dass
natürlich jeder seine Daten entsprechend seinen Bedürfnissen modelliert und
geschaffen hat, es geht dann nur noch um gemeinsame Sprachen, das alles in
Beziehung miteinander setzen zu können. Es handelt sich also gewissermassen um
Techniken, die für die Lösung von Problemen in einer Welt maximaler lokaler
Freiheit entwickelt wurden. Bei der Adaption für das Bibliothekswesen nehme aber
auch ich einen Twist wahr: Sowohl Regelwerksentwicklung als auch
Formatentwicklung wurden auf /nationaler/ (die Österreicher mögen mir das Wort
verzeihen) Ebene abgebrochen, weil der Aufwand nicht mehr leistbar war. Die
vorhandenen Ressourcen wurden für die internationale Mitarbeit umgewidmet sowie
die Nebenaufgabe, aus international bestehenden Wahlmöglichkeiten jeweils
national als verbindlich zu geltende auszuwählen. Analog wird auch international
an verbindlichen RDF-Vokabularen als Companions für das Regelwerk geschraubt.
Ich begrüsse durchaus, dass diesbezügliche Anstrengungen nun international
gebündelt sind, zum Beispiel könnte man nun viel deutlicher als früher sehen,
dass unsere Interoperabilitätsprobleme /nicht/ (bzw. nur zu einem geringen Teil)
durch die Nutzung gemeinsamer Regelwerke und Austauschformate verschwinden.

Es gibt Ansätze (bereits in MARC21), mit der /nicht vermeidbaren/ Vielfalt
umzugehen, wie sie durch unterschiedliche lokale Erschließungszwänge entsteht
oder eben durch Kataloganreicherungen. Wenn wir unsere Daten als Daten
verstehen, dann ist nicht nur mit Ranganathan die Bibliothek ein Organismus,
sondern jeder Datensatz hat sein Leben: Informationen werden zusammengetragen,
Zusammenhänge abgebildet, partielle Updates gefahren, redundante und latent
widersprüchliche Fakten werden aggregiert. Damit entstehen Fragen des
Kuratierens von Daten und der “provenance” von Einzelinformationen und “data
sets”, die aber vermutlich erst von späteren Regelwerken als den aktuellen
aufgegriffen werden können.
Klar ist aber auch hier, dass es nicht mehr ohne Werkzeuge geht. Aber die
Vorstellung, dass eine LIS-Absolventin des Jahres 2020 eine
Aufstellungssystematik für den neuen Arbeitsplatz mit den geeigneten Tools als
“Ontologie” realisiert und anschliessend ins Bibliothekssystem importiert, wo
sie dann sofort Wirksamkeit entwickelt, ist doch nicht völlig absurd?

Die aktuellen Entwicklungen bieten m.E. gute Chancen für “lokale” Lösungen (nie
wieder die Systematik aus Excel ausgedruckt neben dem Terminal, weil das
Bibliothekssystem zu dumm ist), diese (eigentlich in den eingesetzten
Technologien begründeten) Aspekte werden jedoch kaum wahrgenommen (aber
vielleicht verstehe ich auch nicht alles, was auf der BIBFRAME-Diskussionsliste
so passiert). Das mag zum einen an jahrhundertealten Traditionen im
Bibliothekswesen liegen (Archive und Museen ticken da seit jeher anders),
Dirigismus als Indiz für Professionalität zu begreifen, mit den Strukturen
hierzulande (alle Entwicklungen werden hauptsächlich von der m.E. doch sehr
homogenen Gruppe der “wissenschaftlichen Universalbibliotheken” bzw. ihrer
Repräsentanten getragen), aber nicht auszuschließen ist, dass die Profession als
solche so ausgeblutet und mit Alltagsarbeit überlastet ist, dass mit Ideen zur
besseren Gestaltung der eigenen Arbeit nicht mehr gerechnet werden kann. Das
wäre dann wirklich das Ende…

viele Grüße
Thomas Berger

​
-- 
http://www.inetbib.de

Listeninformationen unter http://www.inetbib.de.