[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Re: Internet-Seiten indexieren



Hallo liebe Inetbibler,

Heidrun Wiesenmueller schrieb am 2 Nov 2004 um 11:37:

> in Rheinland-Pfalz und Baden-Wuerttemberg laufen Pilotprojekte zum
> Sammeln, Erschliessen und Archivieren von Netzpublikationen (auch
> Websites) im Rahmen des elektronischen Pflichtexemplars.

Das zuverlässige Archivieren von Web-Seiten ist in der Tat eine sehr
interessante und nützliche Sache.
In diesem Zusammenhang muss allerdings auch auf das schon seit
einigen Jahren bestehende "Internet Archive" verwiesen werden, in dem
insgesamt 30 Milliarden (!) archivierte Fassungen von Web-Seiten seit
1996 enthalten sind: http://web.archive.org/

Das manuelle Erschließen von Web-Seiten anhand bibliothekarischer
Regeln ist allerdings ein - ich muss es auch als Bibliothekar so
drastisch ausdrücken - nutzloses Unterfangen. Insbesondere wenn dies
nur auf lokaler oder nationaler Ebene geschieht.

Es gibt Internet-Verzeichnisse und -Lexika, an denen jeder kostenlos
mitarbeiten kann. Als Beispiel seien hier nur das "Open Directory
Project" und die Wikipedia genannt.
http://dmoz.de/
http://de.wikipedia.org/

Mancher mag diese Projekte ja als "unwissenschaftlich" abtun - die
Qualität ist jedoch überwiegend sehr gut. Zudem werden diese Web-
Seiten von Millionen von Menschen genutzt - jeden Tag.

Warum bringen wir unser Know-How in Sachen formale und inhaltliche
Erschließung nicht in solche offenen, erfolgreichen Projekte ein
anstatt immer neue, lokal begrenzte Projekte ins Leben zu rufen, die
am Ende  - wenn überhaupt - nur einen äußerst geringen Nutzerkreis
erreichen?

Viele Grüße

Sebastian Wolf

--
Sebastian Wolf
Universitätsbibliothek Bielefeld, Internet-Gruppe
Telefon: 0521 / 106-4044
E-Mail (NEU!): sebastian.wolf@xxxxxxxxxxxxxxxx
URL: http://www.ub.uni-bielefeld.de


Listeninformationen unter http://www.inetbib.de.