13.12.2012, 23:23
Eine "robots.txt"-Datei schränkt den Zugriff auf Ihre Website für Suchmaschinenrobots ein, die das Web crawlen. Robots sind automatisierte Systeme, die vor dem Zugriff auf die Seiten einer Website prüfen, ob der Zugriff auf bestimmte Seiten möglicherweise durch die Datei "robots.txt" gesperrt ist.
Meine Frage, gibt es ein Plugin was die Erstellung einer .txt ersetzt oder anderweitige Möglichkeiten?
Wenn ich meine Site in google eingebe, stehen ca. 10 Domains untereinander, kontakt, impressum usw. Will nur einen Eintrag und zwar beziehend auf die Hauptseite gelistet haben.
Gruß
Meine Frage, gibt es ein Plugin was die Erstellung einer .txt ersetzt oder anderweitige Möglichkeiten?
Wenn ich meine Site in google eingebe, stehen ca. 10 Domains untereinander, kontakt, impressum usw. Will nur einen Eintrag und zwar beziehend auf die Hauptseite gelistet haben.
Gruß