[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Re: [InetBib] Freies Wissen und Freies Suchen



Hallo Herr Fenn,

vielen Dank für diesen wichtigen Hinweis -- das Projekt war zumindest 
mir bislang nicht bekannt. Soweit ich es überblicke, ist diese Software 
aber standardmäßig eher als Suchmaschine für Webseiten und damit für das 
Retrieval in relativ unstrukturierten Daten gedacht. Gibt es denn 
bereits Erfahrungen mit Anwendungen im Bibliotheksumfeld? Dank MAB und 
MARC sind dort ja ganz andere Arten von Suchanfragen (jenseits von 
reinen Keyword-Suchen) möglich.

Eine Randnotiz will ich aber nicht verschweigen: Die Software steht 
unter der GPLv2 und macht damit zumindest den Einsatz in kommerziellen 
Softwareunternehmungen schwierig. Wer hier nach Alternativen sucht, 
sollte sich

* Nutch ansehen (steht unter der Apache Licence 2.0), wenn es um das 
Crawlen von und Retrieval in großen Mengen von Webseiten geht (lässt 
sich dank der Hadoop-Unterstützung sehr leicht nach dem 
Map-Reduce-Paradigma parallelisieren)
* oder das ebenfalls unter der Apache Licence 2.0 stehende Solr ansehen, 
wenn der Korpus aus (semi-)strukturierten Dokumenten besteht

Beide Projekte ermöglichen es auch ohne (tiefergehende) 
Programmierkenntnisse Suchmaschinenindizes aufzubauen, indem lediglich 
Konfigurationsdateien editiert werden. Für die anschließende Integration 
in die eignen Internetangebote muss man aber schon etwas Code schreiben 
- sonst bräuchte man ja auch keine Informatiker mehr ;)

Ich denke aber, dass die Diskussion bezüglich freier Daten und dem 
Zugriff auf diese momentan -- zumindest nach meinem Geschmack -- auf zu 
niedriger Ebene geführt wird. Sicherlich gibt es vielfältige technische 
Herausforderungen, aber diese sind nicht unlösbar. Viel entscheidender 
ist doch aber die sinnvolle Nutzung der freien Datensilos, die an jeder 
Ecke entstehen. Ohne diese Bewegung kritisieren zu wollen (ich bin 
selbst ein Befürworter von freien Daten), fehlen mir momentan einfach 
die sinnvollen Anwendungsfälle, die Killer-App. Natürlich können wir 
jedes Silo anzapfen und in einen großen Index werfen, aber mit welchem 
Ziel? Man sollte immer daran denken, dass die Benutzerzufriedenheit 
nicht unbedingt mit der Menge der eingebundenen Datenquellen zunimmt.

Beste Grüße,
Sascha Szott

Am 12.06.2010 23:57, schrieb Juergen Fenn:
Michael Christen, der die freie Peer-to-peer-Software<a
href="http://yacy.de/index_de.html";>Yacy</a>  entwickelt hat, mit der man
verteilte Suchmaschinen aufbauen kann, hat Manfred Kloiber vom
Deutschlandfunk auf dem Linuxtag ein Interview gegeben und dabei
erklärt, warum es nicht reicht, freie Inhalte ins Netz zu stellen. Auch
die Suchmaschinentechnik muß frei sein.

"Es gibt ja sehr viele freie Inhalte im Internet. Diese freien Inhalte,
Wikipedia ist ein prominentes Beispiel, es gibt auch freie Musik, und
alles unter Creative Commons, und die Open-Access-Bewegung: alles
produziert freie Inhalte. Aber der Zugang zu diesen Inhalten ist
proprietär. Sie müssen über eine Suchplattform gehen, die eine geheime
Software betreibt, die Sie nicht selber benutzen können und eben
unabhängig werden von einem proprietären Betreiber. Und hier gibt es
eine fehlende Funktion in der Kette. Freie Information kann eben nur
dann frei sein, wenn sie es frei mit freier Software finden können."

Audio:
<http://ondemand-mp3.dradio.de/file/dradio/2010/06/12/dlf_20100612_1648_7c15a712.mp3>

Jürgen Fenn.


-- 
http://www.inetbib.de


Listeninformationen unter http://www.inetbib.de.