[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Re: URL's aus WWW - Seiten extrahieren



Hallo,

On Wed, May 16, 2001 at 10:27:47AM +0200, Michael Schaarwaechter wrote:
> benutzt. Die Zielsetzung bei meinem Programm war, ein Verzeichnis 
> aller internen und externen Links eines oder mehrerer Webserver(s) zu 
> erstellen, um damit eine Positivliste fuer einen Proxy zu erstellen. 

hmm, kommt mir irgendwie bekannt vor ;-) Allerdings ist es bei uns eine
Negativliste mit Webmailern, die gerade aufgebaut werden soll. Wenn unser
Proxy (squid+squidguard) in Betrieb gegangen ist, dann werde ich unsere
Einstellungen und Positiv/Negativ-Listen auf Ihrer Squid-Seite 

http://misc.ub.uni-dortmund.de/squid/

eintragen lassen.

Gruss

Oliver

-- 
Oliver Flimm                                E-mail: flimm _at__ ub.uni-koeln.de
Computing Department                        Voice : +492214703330 (Room 303)
Central Library (USB)                       Adress: Universitaetsstr. 33
University of Cologne, Germany                      D-50931 Koeln


Listeninformationen unter http://www.inetbib.de.