Hallo Chris und Olaf, hallo (neue?) Mitleser!
Meine subjektive Einschätzung der Google Webmastertools ist die, dass Google meine Websites "mag" und deshalb gern regelmäßig seine/ihre Bots zu mir schickt.
Objektiv betrachtet liegt das eher an echtem regelmäßig gepflegtem (=gutem) Content (oberste SEO-Regel: Content, Content, Content!) und die Indexierung durch die Google-Bots geht bei Verwendung einer Sitemap auch einen Tick schneller als ohne Sitemap bzw. je nach Seitenaufbau würden manche Seiten vom Crawler ohne Sitemap nicht gefunden oder zu selten besucht.
Das würde bei einer manuell erstellten Sitemap mit regelmäßig gepflegtem Datum der letzten Bearbeitung ("lastmod") auch von Google mit Botbesuchen (resultierend in Aufnahme in Suchverzeichnis) honoriert, aber mit dem schönen Plug-in Sitemapper geht das vollautomatisch und deshalb regelmäßiger als wenn man ein nicht so schlaues CMS benutzt und selbst daran denken muss.
Denn es kommt noch ein Faktor hinzu:
Google mag es, wenn man die Sitemap gelegentlich aktualisisert ("lastmod") und auch bestimmten Seiten unterschiedliche Prioritäten zugewiesen hat.
Ich schreibe euch nichts Neues, wenn ich kurz an den nützlichen Eintrag in der robots.txt erinnere (nur Ausschnitt, bei mir letzte Zeile der Datei):
Code: Select all
Sitemap: https://domainname.tld/?sitemapper_index
Dies genügt zumindest bei meinen drei Websites, davon zwei mit CMSimple_XH 1.6.7 und Sitemapper 2.0.1, damit Google bei jedem Besuch der Websites auch gleich die Sitemaps berücksichtigt.
Dank des genialen Sitemapper_XH-Prinzips werden dabei meine zweisprachigen Sitemapper-Dateien neu erzeugt und Google arbeitet so immer aktuelle Sitemaps ab.
Nur die Sitemap meiner alten Websiteversion muss ich gelegentlich manuell erzeugen (noch mit websiteBaker erstellt).
So sehe ich auch den Unterschied: CMSimple_XH-Websites werden fast täglich von Google besucht = indexiert, andere ohne automatisches Sitemap-Update nur wöchentlich oder seltener, je nachdem wie häufig Seiten (und Sitemap!) geändert werden.
Ein zusätzlches Anstoßen ("Hallo Google, schau mal wieder vorbei!") ist nicht unbedingt erforderlich, kann aber zusätzlich einfach durch (Menüpfad:) Crawling/Abruf wie durch Google angestoßen werden und schadet überhaupt nicht. Google hat maximale Grenzen dafür gesetzt, die werden dann angezeigt. Man verärgert Google damit nicht.
In deren Hilfe bzw. Tipps wird auch extra erwähnt, dass man nach Korrektur von fehlerhaft gemeldeten Seiten oder wenn man viel geändert hat und das an Google melden will, einfach "Abruf wie durch Google" nutzen soll, damit die Bots schneller als normal die Seiten in den Index aufnehmen bzw. diesen aktualisieren.
Das kann ich aus der Praxis bestätigen.
Ein Hinweis noch, insbesondere an mitlesende Neulinge im Forum gerichtet, aber auch an "alte Hasen", die das bisher vernachlässigen:
Die Metadaten jeder Webseite sind nicht alle unwichtig (CMSimple_XH: hier speziell der Reiter "Sitemap").
Unter "Sitemap" wird für Suchmaschinen hinterlegt, wie wichtig die Seite im Verhältnis zum Rest ist und wie oft der Suchbot diese auf Änderungen prüfen soll.
Je ehrlicher diese Angaben sind, desto "zutraulicher" wird die Suchmaschine und kommt wirklich so oft wie man es sich wünscht.
Das habe ich ebenfalls in der Praxis bestätigt bekommen. Google macht keine Zusagen, dass sie sich daran halten werden, wenn man das angibt, aber in den letzten Monaten meiner Beobachtung hat Google meinen Angaben "vertraut" (haha, nein, sicher geprüft und gemerkt, dass ich realistische Änderungsintervalle angebe).
Sorry für langen Text, hilft aber vielleicht auch mitlesenden Neulingen und verkürzt vielleicht die Diskussion ob und wann Suchmaschinen Bescheid gemeldet werden soll.
Wie man das für Bing macht, weiß ich allerdings nicht. Man beachte aber auch deren Nischendasein. Kein Grund für Nichtstun, aber weniger dringlich.
Ich mag auch MetaGer und Witch, die Suchhexe. Da wird man über Metadaten gefunden, wenn man sie gepflegt hat