2011-11-06T16:59:07 janmanuell, nachdem du Logs gegreppt nach zu vielen Zugriffen hast oder wie?Ich blocke solche meistens mit iptables.
2011-11-06T16:06:15 GwenDragonIch suche nach einer Möglichkkeit, bestimmte Suchmaschinen, die sich nicht an Disallow-Regeln in der robots.txt halten, sondern ca. 30 mal pro Sekunde immer den gleichen URL (mit gleicher Remote-IP) einer Website abholen zu blockieren.
Und zwar ohne den Apache mit viel Arbeit zu belasten.
Derzeit leitet der Apache ganz böse auf 127.0.0.1 (dort ist nix!) um.
Wie mache ich das am effektivsten?
Mit iptables ganz blockieren?
Mit einem Skript verzögern?
Mit /etc/hosts.deny sperren?
Was denkt ihr, was sinnvoll ist?
QuoteWieso Angreifer?Mir scheint, das sind alles defensive Maßnahmen. Den Angreifer wird das wenig jucken.
2011-11-07T12:13:08 GwenDragonQuoteWieso Angreifer?Mir scheint, das sind alles defensive Maßnahmen. Den Angreifer wird das wenig jucken.
Es handelt sich um einen Bot mit bekannter IP/-Range, keinen Angreifer.
Und ja, das sind defensive Maßnahmen.
Es ist mir von Rechts wegen nicht erlaubt, den Bot samt Server mit tausenden IP-Paketen zu bombardieren, um den zu stoppen.
Du weißt, was ich meine mit (Ro)bot? Oder verwechselst du da was mit Bot-Netzen?
Quote... aber dem Robot ist es erlaubt, deinen Server zu bombardieren.Es ist mir von Rechts wegen nicht erlaubt, den Bot samt Server mit tausenden IP-Paketen zu bombardieren, um den zu stoppen.
QuoteIn meinem Beitrag ging es mir nicht um Technik, sondern um Ethik. Hast du das nicht gemerkt?Die anständigen Netzbetreiber sollten sich zusammentun und sich wehren.
QuoteNein, das sind nur Bots, die alles absaugen wollen, als Angriff würde ich das noch nicht beteichnen, eher als unnötiger Resourcenverbrauch, denn ich oder auch Auftraggeber zahlen müssen.Wenn 30 mal pro Sekunde dieselbe Webseite abgerufen wird, halte ich das schon für einen Angriff.
2011-11-08T12:14:00 GwenDragonCyberwar wäre ja schön auszudenken, ist das deiner Meinung nach ethisch vertretbar?
2011-11-06T16:06:15 GwenDragonDerzeit leitet der Apache ganz böse auf 127.0.0.1 (dort ist nix!) um.
QuoteJa, a bin ich auch der Meinung.Redirects sind sowas wie "F*** d*** s*****" und somit nicht wirklich höflich.
QuoteJa, nur bekommt bei einem Forbidden auf manchen Domains dann der Bot jedesmal die kundenspezifische Fehlerseite geliefert.der 403 ist sinnvoller, da man dem bot nicht böse sein darf, wenn er dank IP-Tables nicht mitbekommt, dass die Url für ihn tot ist und ewig fragt.
2011-11-08T09:46:57 kristianTeergrubing sollte man sehr gut begründen können.
2011-11-08T09:46:57 kristianRedirects sind sowas wie "F*** d*** s*****" und somit nicht wirklich höflich.
2011-11-08T09:46:57 kristianEDIT: der 403 ist sinnvoller, da man dem bot nicht böse sein darf, wenn er dank IP-Tables nicht mitbekommt, dass die Url für ihn tot ist und ewig fragt.