Thread robots.txt auf www.perl-community.de (7 answers)
Opened by kristian at 2010-03-11 23:11

kristian
 2010-03-11 23:11
#134503 #134503
User since
2005-04-14
684 Artikel
BenutzerIn
[Homepage] [default_avatar]
Sorry für die Klugscheisserei aber:
Code: (dl )
1
2
3
4
5
6
7
8
9
10
# Allow all                                                                     
User-agent: *
Disallow: /bat/login
Disallow: /bat/guest
Disallow: /bat/userprefs
Disallow: /bat/member
Disallow: /bat/poard/post_answer

User-Agent: MJ12bot
Crawl-Delay: 10
ist meiner Meinung nach so nicht richtig.
Ein Bot liest die komplette robots.txt und speichert "*" in "anonymous", wenn er sich selbst findet geht das in "is_me".
Bei der Abfrage ob etwas erlaubt ist guckt er in "is_me" || "anonymous".
Sprich wenn er sich selbst gefunden hat wird "anonymous" ignoriert.
d.h. der MJ12 darf hier alles lesen was er will solange er sich an das Delay hält.

Achso, beim GoogleBot ist in der Vergangenheit oft aufgefallen, dass "*" ignoriert wird, dieser "Fürst" will mit seinem Namen angesprochen werden.

Gruß
Kristian

View full thread robots.txt auf www.perl-community.de