Das meiste sind nicht mehr aktive Produkte welche per 301 auf passende Filterseiten umgeleitet werden. Mag das Googel nicht mehr? Sollte man technisch da was ändern?
Aber das eigentlich merkwürdige sind Urls welche es bei uns nicht gibt.
Die Urls sind folgendermaßen aufgebaut:
- https://www.meine Domain/
- dann z.B. folgende Produkttitel welche überhaupt nichts mit unserem Shop oder unseren Produkten zu tun haben und ich nicht weiß wo das herkommt:
SCGGINTTANZ GD3102 Mädchen Latin Latein Gesellschaftstanz Der Ball Tanz Professionell Netzgarn Spleiß Design Kleider Für Kind
Josef Seibel Herren Conor 20 Derby
Ashwood Leder - A4 Reißverschluss Konferenzmappe Schreibmappe Kastanie Braun
Ermenegildo Zegna Herren Brillengestelle
JHKJ Crib Smart elektrische Wiege Swing Bluetooth Fernbedienung Cradle Shaker Langschläferbett Faltbare und waschbare Newborn Bed
JIANYE 3 in 1 Jacke Herren Softshell Damen Wasserdicht Wanderjacke Atmungsaktiv Funktionsjacke Outdoor Skijacke Warm Doppeljacke
- und zum Schluss noch Parameter welche es in unserem Shop wirklich gibt und welche alle zu einer meiner wichtigsten Marke oder Filterseiten davon gehören.
Ich habe keine Ahnung was das soll. mein Programmierer meinte folgendes:
Hat von euch jemand eine Idee, was es damit auf sich hat? Oder wie man dem Ganzen auf den Grund gehen kann?ehrlichgesagt leider überhaupt keine Ahnung…
• Erste Überlegung: Shop gehackt, Fake-Produkte in der Datenbank. Aber die ist sauber, da ist nix drin.
• Zweite Überlegung: Shop gehackt, Dateien modifiziert. Aber es ist auf den ersten Blick alles unauffällig.
• Dritte Überlegung: Shop gehackt, Sitemap modifiziert. Aber auch da drin scheinen diese Produkte nicht auf.
Shop gehackt kann ich ergo ausschließen. Außerdem scannt Host Europe regelmäßig die Server und dreht da auch rigoros ab, wenn die was finden.
Was auffällt ist, dass die Urls nicht unserer URL-Struktur folgen. Es sind Leerzeichen drin (was es bei uns nicht gibt), die Ordnerstruktur fehlt…
Das muss fast von extern kommen. Wie werden URLs indexiert? Indem sie entweder in Form von Listen (Sitemap) zur Verfügung gestellt werden oder gecrawlt werden. Das muss ja nicht zwangsläufig bei uns gecrawlt werden.
Beispiel: Bei LAdenzeile tritt auf deren Seite ein Fehler auf, sodass die URLs zur Shopseite der Produkte falsch generiert werden. Wenn das dann indexiert wird steht’s auch falsch im Suchindex. Aber dann wär eigentlich die komplette URL falsch und nicht nur ein Teil davon…
Was auch auffällt: In jeder dieser URLs steckt „:.:xx.html“. Das ist das Kürzel für die Marke xxxxx . Die URLs ergeben also alle die xxxxx-Markenseite mit angewandten Filtern. Lediglich der Markenname „xxxxx“ wurde in der URL gegen einen Produktnamen ausgetauscht.
Ich frag mich, wo genau der Nutzen liegt… Ich mein, selbst wenn hier ein Bot irgendwo im Web automatisch solche Listen mit solchen URLs generiert, was bringt’s?