Seiten mithilfe einer "robots.txt"-Datei blockieren oder entfernen - Druckversion +- MyBB.de Forum (https://www.mybb.de/forum) +-- Forum: Archiv (https://www.mybb.de/forum/forum-57.html) +--- Forum: MyBB 1.6.x (https://www.mybb.de/forum/forum-58.html) +---- Forum: Allgemeiner Support (https://www.mybb.de/forum/forum-59.html) +---- Thema: Seiten mithilfe einer "robots.txt"-Datei blockieren oder entfernen (/thread-27058.html) |
Seiten mithilfe einer "robots.txt"-Datei blockieren oder entfernen - Trust - 13.12.2012 Eine "robots.txt"-Datei schränkt den Zugriff auf Ihre Website für Suchmaschinenrobots ein, die das Web crawlen. Robots sind automatisierte Systeme, die vor dem Zugriff auf die Seiten einer Website prüfen, ob der Zugriff auf bestimmte Seiten möglicherweise durch die Datei "robots.txt" gesperrt ist. Meine Frage, gibt es ein Plugin was die Erstellung einer .txt ersetzt oder anderweitige Möglichkeiten? Wenn ich meine Site in google eingebe, stehen ca. 10 Domains untereinander, kontakt, impressum usw. Will nur einen Eintrag und zwar beziehend auf die Hauptseite gelistet haben. Gruß RE: Seiten mithilfe einer "robots.txt"-Datei blockieren oder entfernen - NetHunter - 14.12.2012 Ein Plugin ist mir nicht bekannt. Ist aber auch nicht nötig. Eine robots.txt ist schnell angelegt. Siehe auch hier. RE: Seiten mithilfe einer "robots.txt"-Datei blockieren oder entfernen - frostschutz - 14.12.2012 Beim Google SEO Plugin ist eine Beispiel robots.txt Datei dabei die du an deine Bedürfnisse anpassen kannst. Zitat:Will nur einen Eintrag und zwar beziehend auf die Hauptseite gelistet haben. Normalerweise willst du so viel Inhalt wie möglich (alle Threads usw.) in Google haben, da du sonst schlichtweg nicht gefunden wirst. Du solltest also nur vorsichtig blockieren. Impressum, Kontakt ist OK wenn du das nicht bei Google haben willst, nur wenn du alle Inhalte blockierst schadest du dir selbst. |