Thread Bots blockieren/verhungern lassen (20 answers)
Opened by GwenDragon at 2011-11-06 17:06

GUIfreund
 2011-11-07 13:00
#153977 #153977
User since
2011-08-08
559 Artikel
BenutzerIn
[default_avatar]
2011-11-06T16:06:15 GwenDragon
Ich suche nach einer Möglichkkeit, bestimmte Suchmaschinen, die sich nicht an Disallow-Regeln in der robots.txt halten, sondern ca. 30 mal pro Sekunde immer den gleichen URL (mit gleicher Remote-IP) einer Website abholen zu blockieren.
Und zwar ohne den Apache mit viel Arbeit zu belasten.
Derzeit leitet der Apache ganz böse auf 127.0.0.1 (dort ist nix!) um.

Wie mache ich das am effektivsten?

Mit iptables ganz blockieren?
Mit einem Skript verzögern?
Mit /etc/hosts.deny sperren?

Was denkt ihr, was sinnvoll ist?

Mir scheint, das sind alles defensive Maßnahmen. Den Angreifer wird das wenig jucken. Die anständigen Netzbetreiber sollten sich zusammentun und sich wehren. Zum Beispiel sinnlose Seiten zurücksenden, vielleicht noch mit Malware drin. Cyberwar vom Feinsten. Um unseren Gröfaz zu zitieren: "Wir gehen herrlichen Zeiten entgegen".
Gruß
GUIfreund

View full thread Bots blockieren/verhungern lassen