09.09.2008, 13:12
Google selbst hat sich ja zum Problem von duplicate content schon geäußert, das Thema ist also keine reine SEO-Vermutung mehr.
MyBB produziert für den Titel und die Metatags duplicate content. Vom Text her kritelt es Google aber noch nicht direkt an.
In den Google Webmaster-Tool kann man das am einfachsten überprüfen. In meinem Forum werden 22.483 Seiten als DC von Google abgestempelt.
Siehe:
Wie man hier sieht, gibt es also von jeder meiner Forum Seiten drei Kopien, also viel bis auf die URL gleiche seiten
Die einfachste Lösung ist wahrscheinlich mal drei dieser URL via robots.txt vor den Crawlern zu sperren.
Hat sich schon wer damit beschäftig, bzw. das Umgesetzt?
joe
MyBB produziert für den Titel und die Metatags duplicate content. Vom Text her kritelt es Google aber noch nicht direkt an.
In den Google Webmaster-Tool kann man das am einfachsten überprüfen. In meinem Forum werden 22.483 Seiten als DC von Google abgestempelt.
Siehe:
Wie man hier sieht, gibt es also von jeder meiner Forum Seiten drei Kopien, also viel bis auf die URL gleiche seiten
Die einfachste Lösung ist wahrscheinlich mal drei dieser URL via robots.txt vor den Crawlern zu sperren.
Hat sich schon wer damit beschäftig, bzw. das Umgesetzt?
joe