Gibt es eine Möglichkeit, mehrere sitemap.xml-Dateien zu testen? Die Validierung funktioniert einwandfrei. Google akzeptiert alle Unterdateien, aber "Server Response Check" in Yandex gibt "Document enthält keinen Text" zurück.
Durch die Crawling-Rate und den allgemeinen Indexierungsfortschritt habe ich den Eindruck, dass beide Suchmaschinen keine Inhalte aus den Sitemap-Dateien lesen können. Beide, weil es eine große Menge von "Entdeckt - derzeit nicht indiziert" = 2/3 aller Inhalte gibt, wurden nie gecrawlt und wegen der Indexierung mit niedriger Ration in Yandex.
Diese Website enthält ca. 750.000 Links in Sitemap-Dateien. Wenn ich 50.000 Links pro Datei (ca. 11 MB) generiere, wird das Crawling-Diagramm hoch und fällt dann ab. Wenn es 10.000 Links pro Datei sind, fällt das Diagramm viel schneller und bleibt weiter auf ungefähr dem gleichen Niveau.
Wir haben verschiedene Überprüfungen durchgeführt und technisch scheint alles in Ordnung zu sein, aber die Leistung zu betrachten ist ziemlich zweifelhaft. Robots.txt bietet vollen Zugriff. Roboter Meta-Tags auch.
Bitte sehen Sie Screenshots unten. Speicherort der Sitemap-Datei: https://www.rusinfo.eu/sitemap.xml Yandex Server Link überprüfen: https://webmaster.yandex.ru/tools/server-response/
"Server-Antwortprüfung" in Yandex gibt "Dokument enthält keinen Text" zurück.
wenn das gesamte System der Sitemap-Dateien wirklich funktioniert - was bedeutet, dass es tatsächlich von den Suchmaschinen richtig gelesen wird?
Sicher: Fehlerfreie Protokolldateien und ein alarmfreier GSC/Yandex-Webmaster würden bedeuten, dass Sitemaps alles in Ordnung sind.
Kann dieses Problem zusammenhängen
Welches Problem? Meinst du
Diese Website enthält ca. 750.000 Links in Sitemap-Dateien. Indiziert sind ca. 150.000
Dies liegt daran, dass Ihre Website zu wenig eindeutigen Inhalt enthält. Die meisten Inhalte werden dupliziert - zuerst von anderen Medien veröffentlicht. Für Google sind die meisten Teile der Website nur sekundärer Nachrichtenaggregator.
Was Sie erleben, ist kein Sitemap-Problem, sondern ein massives Problem mit duplizierten Inhalten.