ich habe gerade gesehen dass in den Google Webmaster Tools immer mehr fehlerhafte URL`s auf meiner Domain http://www.sportwettentalk.com angezeigt werden.
Die Fehler steigen seit dem Juni 2012 stetig an und sind mittlerweile bei über 50 000.
Der Googlebot versucht auf Seiten zuzugreifen von denen er dann einen 403 Code gemeldet bekommt.
Wie kommt es dazu??
Im Anhang ein Screenshot der Fehler.
Das Wettfoum im deutschsprachigen Raum. SportwettenTALK.com
Auf diese Art werden den Bots die Zugriffe auf diese PHP´s oder auch ganze Ordner untersagt. Man "verbietet" sozusagen das crawlen dieser Inhalte. Da Dein Bot keine Rechte für Themenerstellung oder Thread-Bewertung oder ähnliches hat, kommt dann der Zugriffsfehler in Deinem Log. Du kannst ja genau sehen was Er versucht hat aber nicht durfte.
- ratethread.php
- newreply.php
- u.s.w.
Ich denke mit einer guten robots.txt wirste das in den Griff bekommen,
denn was die Bots nicht crawlen dürfen, kann dann auch nicht als Zugriffsverweigerung geloggt werden.
(10.10.2012, 04:41)GreenDragon schrieb: Ich denke mit einer guten robots.txt wirste das in den Griff bekommen,
denn was die Bots nicht crawlen dürfen, kann dann auch nicht als Zugriffsverweigerung geloggt werden.
"Nicht crawlen dürfen" - nunja, die Bots müssen sich nicht an die robots.txt halten - jedoch halten sich die meisten Crawler daran.