Hallo Olaf,
vielen Dank!
Funktioniert!
Wenn die reingebastelte Umleitung nicht stört, falls man die nicht braucht, umso besser als Universallösung!
Und noch ein Tipp für alle:
Könnte jedem passieren, der mehr als eine Website betreibt und/oder die alte z. B. als Archiv laufen lässt (z. B. mit Subdomain archiv.domain.tld):
Ich habe die Ursache gefunden, warum die Google-Crawler mir dauernd nicht gefundene Seiten melden, die es gar nicht gibt:
Die robots.txt hatte ich vergessen - da steht in jeder, weil es ja so praktisch ist drin:
Code: Select all
# Sitemap
Sitemap: https://domain.tld/?sitemap.xml
Nur in den neuen mit CMSimple_XH steht drin (bei der einen mit https):
Code: Select all
# Sitemap
Sitemap: http://domain.tld/?sitemapper_index
Da haben sich die Crawler dann fleißig bedient und somit nicht nur nicht existente Seiten gemeldet, sondern auch irgendwie mit Seiten der aktuellen Website vermischt,
so wurden dann auch nicht gefundene URLs nach Schema
https://domain.tld/en/en/en/index.php gemeldet.
Oder auch Seiten mit /pages/ drin, was eindeutig nur vom vorher verwendeten WebsiteBaker bzw. WebsiteBaker CE stammen kann.
Bis heute Abend wurde die kleine "Privat-Homepage" noch davon verschont, aber da hat nun Google doch wieder mal neu gescannt und schon meckerte es
Seiten an, die ich ganz eindeutig meiner archivierten Privat-Homepage zuordnen kann.
Lösung: Sitemap-Eintrag in den robots.txt der alten nicht mehr für Google wichtigen Archiv-Websites gelöscht. So dürfte bis Ende der Woche endlich Ruhe sein.
