X-Robots-Tag - Wer kann helfen?
X-Robots-Tag - Wer kann helfen?
Ich finde leider die Quelle nicht mehr, aber ich habe mal gelesen, dass man via X-Robots-Tag in der .htaccess einen kompletten URL-Pfad auf noindex, follow setzen kann und darüber hinaus auch noch Ausnahmen einzelner Seiten in diesem Verzeichnis regeln kann. Kann mir hier bitte jemand mit Fachkenntnis die entsprechenden Codezeilen schreiben oder eine passende Quelle verlinken? Vielen Dank schonmal im voraus!
Re: X-Robots-Tag - Wer kann helfen?
Danke für den Link. Die Seite kenne ich bereits. Aber leider bietet sie keine Hilfe zu dem beschriebenen Fall.
-
- Beiträge: 5581
- Registriert: 26. Nov 2008 20:36
- Land: Deutschland
- Branche: Inhouse SEO
Re: X-Robots-Tag - Wer kann helfen?
Ohne es zu zerreden, 2 Gedanken dazu:
noindex, follow > ist nicht 100% anerkannt, aber es gibt eigentlich Aussagen von Google, dass wenn eine Seite noindex ist, den Links auch nicht mehr gefolgt wird. Also "Linkpower" geht damit eh verloren bzw für den Bot ist es nichts mehr. Kenne ja den Case nicht, aber sollte man ggf. bedenken.
Bei der Methode bekomme ich Bauchschmerzen. Ich sehe schon das CMS einen Meta Robots Tag index, den Server sendet im http Header aber einen noindex. Oder man kommt später durcheinander und "vergisst" den Server und und. Wenn es eben geht, würde ich versuchen noindex Anweisungen im CMS zu setzen - geht da ja in der Regel auch global.
Wenn hier ein Freak System vorliegt und es nicht anders geht, hab ich halt nichts gesagt. Den Code kann ich aber leider auch nicht liefern.
noindex, follow > ist nicht 100% anerkannt, aber es gibt eigentlich Aussagen von Google, dass wenn eine Seite noindex ist, den Links auch nicht mehr gefolgt wird. Also "Linkpower" geht damit eh verloren bzw für den Bot ist es nichts mehr. Kenne ja den Case nicht, aber sollte man ggf. bedenken.
Bei der Methode bekomme ich Bauchschmerzen. Ich sehe schon das CMS einen Meta Robots Tag index, den Server sendet im http Header aber einen noindex. Oder man kommt später durcheinander und "vergisst" den Server und und. Wenn es eben geht, würde ich versuchen noindex Anweisungen im CMS zu setzen - geht da ja in der Regel auch global.
Wenn hier ein Freak System vorliegt und es nicht anders geht, hab ich halt nichts gesagt. Den Code kann ich aber leider auch nicht liefern.
Re: X-Robots-Tag - Wer kann helfen?
Danke für deine Einwände, die nicht von der Hand zu weisen sind.
Der Case ist folgender: In einem Shop gibt es ein Lexikon, welches inzwischen aufgrund seines Umfangs mit mehr Seiten indexiert ist, als der Shop selbst. Um dieses Missverhältnis auszugleichen, soll das Lexikon auf noindex gestellt werden. Gut rankende Einträge - Plätze 1 bis 3 in den SERP - sollen jedoch davon ausgenommen werden. Deshalb kommt kein globales noindex für den Pfad in Frage.
Leider wird es nicht anders als mit X-Robots-Tag zu lösen sein, da dieser Teil des Shops (ein Plugin) nicht die Möglichkeit bietet, das noindex direkt im Seitenheader zu steuern. Dem Entwickler ist das bekannt, er verspricht auch nachzubessern, aber das Zeitfenster für ein entsprechendes Update hält man bewusst offen. Von dieser Seite erwarte ich keine schnelle Hilfe.
Ich ehrlich gesagt auch. Denn pflegeleicht und komfortabel ist das nicht, eben quick & dirty. Alternative wäre, die Seiten manuell aus dem Index zu löschen. Das geht aber nur temporär.
Google schreibt dazu, dass der http-Header Vorrang hat.Ich sehe schon das CMS einen Meta Robots Tag index, den Server sendet im http Header aber einen noindex.
Der Case ist folgender: In einem Shop gibt es ein Lexikon, welches inzwischen aufgrund seines Umfangs mit mehr Seiten indexiert ist, als der Shop selbst. Um dieses Missverhältnis auszugleichen, soll das Lexikon auf noindex gestellt werden. Gut rankende Einträge - Plätze 1 bis 3 in den SERP - sollen jedoch davon ausgenommen werden. Deshalb kommt kein globales noindex für den Pfad in Frage.
Leider wird es nicht anders als mit X-Robots-Tag zu lösen sein, da dieser Teil des Shops (ein Plugin) nicht die Möglichkeit bietet, das noindex direkt im Seitenheader zu steuern. Dem Entwickler ist das bekannt, er verspricht auch nachzubessern, aber das Zeitfenster für ein entsprechendes Update hält man bewusst offen. Von dieser Seite erwarte ich keine schnelle Hilfe.
Re: X-Robots-Tag - Wer kann helfen?
Headers-Attribut in einen Bedingungsteil setzen. Die Frage ist: Wie identifizierst du die Ressourcen, die davon ausgenommen werden sollen?
Re: X-Robots-Tag - Wer kann helfen?
Schon klar, aber wie sieht der Code dafür aus?
Hatte ich bereits geschrieben: Gut rankende Einträge - Plätze 1 bis 3 in den SERP - sollen jedoch davon ausgenommen werden.
-
- Information
-
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 17 Gäste