Leser: 26
1
2
3
4
5
6
7
8
9
10
# Allow all
User-agent: *
Disallow: /bat/login
Disallow: /bat/guest
Disallow: /bat/userprefs
Disallow: /bat/member
Disallow: /bat/poard/post_answer
User-Agent: MJ12bot
Crawl-Delay: 10
2010-03-11T22:11:11 kristianEin Bot liest die komplette robots.txt und speichert "*" in "anonymous", wenn er sich selbst findet geht das in "is_me".
QuoteBei der Abfrage ob etwas erlaubt ist guckt er in "is_me" || "anonymous".
Sprich wenn er sich selbst gefunden hat wird "anonymous" ignoriert.
d.h. der MJ12 darf hier alles lesen was er will solange er sich an das Delay hält.
QuoteAchso, beim GoogleBot ist in der Vergangenheit oft aufgefallen, dass "*" ignoriert wird, dieser "Fürst" will mit seinem Namen angesprochen werden.
2010-03-11T22:32:09 pqdanke, habs grad bei wikipedia nachgelesen.
2010-03-11T22:32:09 pqim falle von MJ12bot war es jedoch so, dass er überhaupt keine der anweisungen befolgt (also auch die Disallows oben nicht, weswegen ich in dem Fall auch nicht überprüfen konnte, ob das Crawl-Delay denn wirkt.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
User-agent: *
Disallow: /foo
Disallow: /bar
User-agent: Bot1
Disallow: /foo
Disallow: /bar
Disallow: /baz
User-agent: Bot2
Disallow: /foo
Disallow: /bar
Disallow: /baz
User-agent: Bot3
Disallow: /foo
Disallow: /bar
Disallow: /baz
User-agent: Bot1
Crawl-Delay: 10
User-agent: Bot2
Crawl-Delay: 10
2010-03-11T22:32:09 pqkann ich nicht bestätigen, da Googlebot zurst /bat/member crawlte und nach dem Disallow damit aufhörte.
2010-03-12T08:08:54 kristianOb ein Bot die robots.txt liest und beachtet ist seine Sache, es gibt ja kein Gesetz diesbezüglich.
QuoteOb Sachen wie Allow oder Crawl-Delay beachtet werden ist von Bot zu Bot verschieden.
QuoteIch denke man sollte einem Bot auf jeden Fall auferlegen, die robots.txt zu lesen und nach bestem Wissen zu beachten. Besser man liest zu wenig Urls' als zuviel.
QuoteEs ist nicht immer so, wann und warum es passiert kann ich nicht sagen. Ich weiß aber, dass die Leute die meckerten "G beachtet die robots.txt nicht" Erfolg hatten, nachdem sie G namentlich erwähnten.
2010-03-12T14:39:48 pqQuoteOb Sachen wie Allow oder Crawl-Delay beachtet werden ist von Bot zu Bot verschieden.
der bot behauptet selber auf seiner homepage, dass er das beachtet. nur darum schrieb ichs ja rein...
2010-03-12T14:39:48 pqQuoteIch denke man sollte einem Bot auf jeden Fall auferlegen, die robots.txt zu lesen und nach bestem Wissen zu beachten. Besser man liest zu wenig Urls' als zuviel.
wie meinst du das jetzt wieder? inwiefern soll ich einem bot das "auferlegen"? kann ich irgendeinen bot zwingen? nein.
2010-03-12T14:39:48 pqwenn du nix mehr an der robots.txt auszusetzen hast, werde ich das zu resolved verschieben.
2010-03-12T08:08:54 kristian2010-03-11T22:32:09 pqkann ich nicht bestätigen, da Googlebot zurst /bat/member crawlte und nach dem Disallow damit aufhörte.
Es ist nicht immer so, wann und warum es passiert kann ich nicht sagen. Ich weiß aber, dass die Leute die meckerten "G beachtet die robots.txt nicht" Erfolg hatten, nachdem sie G namentlich erwähnten.
2010-03-12T17:48:11 kristianMom. Ist wieder online.Hallo,
ich verstehe nicht, warum du den Beitrag bezüglich "Sprerrung böser Bost" gelöscht hast.
Der Ansatz war IMHO ok, ein paar Kleinigkeiten zu dem Thema hätte ich auch noch rausgehauen.