Ist es legitim, dass ein Benutzer eine komplette Kopie eines Wiki (derzeit hat das DseWiki ca. 1500 Seiten) herunterlädt?
Kann man erwarten, dass er das Programm so konfiguriert, dass dieser Download schonend erfolgt (vermutlich nicht)?
Wenn der Wunsch sinnvoll und legitim ist, dann müsste ich wohl eine gezippte Version zum Download zur Verfügung stellen. Lieber würde ich mir die Arbeit jedoch sparen. So eine Version ist doch ohnehin am nächsten Tag schon veraltet.
Soll man Slurp automatisch blocken? Und wenn ja, nach welchem Algorithmus (Einfachheit, Sicherheit nicht auf Benutzer anzusprechen)?
Wie ist eure Meinung dazu? Könnt ihr mir mit Erfahrungen oder Vorschlägen helfen?
Erfahrung nicht, aber eine unausgegorene Idee: Könnte man nicht die Anzahl der Seitenzugriffe pro Sekunde je IpAdresse? begrenzen? Wenn man alle weiteren Zugriffe einfach verzögert, würde man das Slurpen nicht vollständig unterbinden (nur ausbremsen), aber das DseWiki entlasten, so scheint es mir. Klingt das sinnvoll? Einfach? -- IljaPreuß
Klingt gut. Nur ein Sekunden-Memory fällt mir schwer einfach und effizient zu implementieren. Aber ein 5-Minuten-Memory wäre einfach zu implementieren. Blocken gefällt mir besser als verzögern, weil die Prozessanzahl beim Apache limitiert wird und es könnten die Prozesse für die Benutzer ausgehen. -- hl
Eine gezippte Version scheint mir eine gute Idee zu sein. Vielleicht alle 12h automatisiert ein zip erstellen sollte doch nicht so schwer sein, oder? Entscheidend wären natürlich die Gründe der Slurper selbst. Aber, spekulierend betrachtet, könnte ich mir vorstellen, daß, ohne DSL-Flatrate ausgestattet, jemand durchaus Interesse daran haben könnte, ein Zip-File des Wikis zu ziehen. Aktualität mag da kein Argument sein, da ein Überblick über die Stammseiten unabhängig von der aktuellen Diskussion auch sehr spannend ist (eigene Erfahrung :-) ). -- bs