X-Robots-Tag - Wer kann helfen?

Optimierung der organischen und bezahlten Suchmaschinenplatzierung bei Google und Bing.
Antworten
Cisnet
PLUS-Mitglied
PLUS-Mitglied
Beiträge: 627
Registriert: 7. Dez 2009 22:13
Land: Deutschland
Kontaktdaten:

X-Robots-Tag - Wer kann helfen?

Ich finde leider die Quelle nicht mehr, aber ich habe mal gelesen, dass man via X-Robots-Tag in der .htaccess einen kompletten URL-Pfad auf noindex, follow setzen kann und darüber hinaus auch noch Ausnahmen einzelner Seiten in diesem Verzeichnis regeln kann. Kann mir hier bitte jemand mit Fachkenntnis die entsprechenden Codezeilen schreiben oder eine passende Quelle verlinken? Vielen Dank schonmal im voraus! :D


3 Monate gratis Händlerbund
Cisnet
PLUS-Mitglied
PLUS-Mitglied
Beiträge: 627
Registriert: 7. Dez 2009 22:13
Land: Deutschland
Kontaktdaten:

Re: X-Robots-Tag - Wer kann helfen?

Danke für den Link. Die Seite kenne ich bereits. Aber leider bietet sie keine Hilfe zu dem beschriebenen Fall.
derHändler
Beiträge: 5581
Registriert: 26. Nov 2008 20:36
Land: Deutschland
Branche: Inhouse SEO

Re: X-Robots-Tag - Wer kann helfen?

Ohne es zu zerreden, 2 Gedanken dazu:
noindex, follow > ist nicht 100% anerkannt, aber es gibt eigentlich Aussagen von Google, dass wenn eine Seite noindex ist, den Links auch nicht mehr gefolgt wird. Also "Linkpower" geht damit eh verloren bzw für den Bot ist es nichts mehr. Kenne ja den Case nicht, aber sollte man ggf. bedenken.

Bei der Methode bekomme ich Bauchschmerzen. Ich sehe schon das CMS einen Meta Robots Tag index, den Server sendet im http Header aber einen noindex. Oder man kommt später durcheinander und "vergisst" den Server und und. Wenn es eben geht, würde ich versuchen noindex Anweisungen im CMS zu setzen - geht da ja in der Regel auch global.

Wenn hier ein Freak System vorliegt und es nicht anders geht, hab ich halt nichts gesagt. :) Den Code kann ich aber leider auch nicht liefern.
Cisnet
PLUS-Mitglied
PLUS-Mitglied
Beiträge: 627
Registriert: 7. Dez 2009 22:13
Land: Deutschland
Kontaktdaten:

Re: X-Robots-Tag - Wer kann helfen?

Danke für deine Einwände, die nicht von der Hand zu weisen sind.
derHändler hat geschrieben: 11. Okt 2020 12:28 Bei der Methode bekomme ich Bauchschmerzen.
Ich ehrlich gesagt auch. Denn pflegeleicht und komfortabel ist das nicht, eben quick & dirty. Alternative wäre, die Seiten manuell aus dem Index zu löschen. Das geht aber nur temporär.
Ich sehe schon das CMS einen Meta Robots Tag index, den Server sendet im http Header aber einen noindex.
Google schreibt dazu, dass der http-Header Vorrang hat.

Der Case ist folgender: In einem Shop gibt es ein Lexikon, welches inzwischen aufgrund seines Umfangs mit mehr Seiten indexiert ist, als der Shop selbst. Um dieses Missverhältnis auszugleichen, soll das Lexikon auf noindex gestellt werden. Gut rankende Einträge - Plätze 1 bis 3 in den SERP - sollen jedoch davon ausgenommen werden. Deshalb kommt kein globales noindex für den Pfad in Frage.

Leider wird es nicht anders als mit X-Robots-Tag zu lösen sein, da dieser Teil des Shops (ein Plugin) nicht die Möglichkeit bietet, das noindex direkt im Seitenheader zu steuern. Dem Entwickler ist das bekannt, er verspricht auch nachzubessern, aber das Zeitfenster für ein entsprechendes Update hält man bewusst offen. Von dieser Seite erwarte ich keine schnelle Hilfe.
JohnGalt
Beiträge: 1043
Registriert: 18. Feb 2013 23:19

Re: X-Robots-Tag - Wer kann helfen?

Headers-Attribut in einen Bedingungsteil setzen. Die Frage ist: Wie identifizierst du die Ressourcen, die davon ausgenommen werden sollen?
Cisnet
PLUS-Mitglied
PLUS-Mitglied
Beiträge: 627
Registriert: 7. Dez 2009 22:13
Land: Deutschland
Kontaktdaten:

Re: X-Robots-Tag - Wer kann helfen?

JohnGalt hat geschrieben: 11. Okt 2020 15:21 Headers-Attribut in einen Bedingungsteil setzen.
Schon klar, aber wie sieht der Code dafür aus?
JohnGalt hat geschrieben: 11. Okt 2020 15:21 Wie identifizierst du die Ressourcen, die davon ausgenommen werden sollen?
Hatte ich bereits geschrieben: Gut rankende Einträge - Plätze 1 bis 3 in den SERP - sollen jedoch davon ausgenommen werden.
Antworten

Zurück zu „SEO & SEM - Suchmaschinenoptimierung und Suchmaschinenwerbung“

  • Information