Thread robots.txt auf www.perl-community.de
(7 answers)
Opened by kristian at 2010-03-11 23:11 2010-03-11T22:11:11 kristian danke, habs grad bei wikipedia nachgelesen. im falle von MJ12bot war es jedoch so, dass er überhaupt keine der anweisungen befolgt (also auch die Disallows oben nicht, weswegen ich in dem Fall auch nicht überprüfen konnte, ob das Crawl-Delay denn wirkt. Quote hm, das widerspricht doch der ersten aussage? "Nach einem Block, dessen erste Zeile mit User-agent: * beginnt, stoppt ein Webcrawler und liest den Rest der Datei nicht mehr" ( ![]() Ich verstehe das also so, dass ich den MJ12bot zum einen nach oben nehmen muss und zum zweiten die Disallows dort alle wiederholen muss. edit: was ich jetzt gemacht habe. Quote kann ich nicht bestätigen, da Googlebot zurst /bat/member crawlte und nach dem Disallow damit aufhörte. Last edited: 2010-03-11 23:33:56 +0100 (CET) Always code as if the guy who ends up maintaining your code will be a violent psychopath who knows where you live. -- Damian Conway in "Perl Best Practices"
lesen: ![]() ![]() |