Das lernen wir aus den Google Webmaster Hangouts im Februar 2020

Google Hangouts für Webmaster finden auch auf Deutsch regelmäßig statt. Hier findest du sie und findest geschrieben, was aus den German Google Webmaster Hangouts im Februar 2020 bei dir hängen bleiben sollte.
Google Hangouts Februar 2020
Inhalt des Artikels

Was ist ein Webmaster Hangout von Google?

Die Google Webmaster Sprechstunden-Hangouts dienen als Anlaufstelle für Webmaster bei Fragen und Problemen mit Google. Zum Beispiel kann man alles zu den Themen Crawling und Indexierung, Duplicate Content, Sitemaps, Search Console, Mehrsprachige und internationale Websites, usw. besprechen. Fragen beantworten tut John Müller, Webmaster Trends Analyst bei Google in Zürich.

Wann waren die deutschen Webmaster Hangouts im Februar?

Am 20. Februar um 13:00 fanden die Deutschen Webmaster Sprechstunden (German Webmaster Hangouts) statt. Dieser Termin war der einzige Deutschsprachige im Februar. Offiziell ist es der „deutsche Google Webmaster Sprechstunden-Hangout“ oder auch „deutscher Google Webmaster Central Sprechstunden-Hangout“ (wie es John immer selbst im Video nennt), um keine Verwirrung zu stiften. Nun kann man hier seine Fragen stellen und im Video eine Antwort erhalten oder direkt live am Hangout teilnehmen (der Link wird an gleicher Stelle in den Kommentaren geteilt) und eine Antwort bekommen.

Das erste deutsche März Webmaster Hangout 2020 ist am 5. März um 13:00 Uhr.

Das Hangout Video vom 20. Februar 2020

Im Video wird auf mehr eingegangen, als ich hier aufnehme, ich versuche die Spreu vom Weizen zu trennen und unwichtiges zu Filtern. 
YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Zum Tool „zum veraltete Links entfernen“ in der Google Search Console

Gleich als Erstes wird klargestellt, dass die neue Version des „Veralteten Links entfernens“ in der neuen Google Search Console 

  1. keinen Unterschied zur alten Version (alte Search Console)
  2. Links bei Verwendung nicht mehr im Suchergebnis angezeigt werden
  3. aber im Google-Index verbleiben
  4. und es sich nur um eine temporäre Lösung handelt
  5. permanente Entfernung aus dem Google Index geht nur mit Status 404 oder meta-robots noindex

Content hinter Paywalls

Tatsächlich sagt John, dass man dem Google Bot Inhalte genauso zeigen sollte, wie dem User. Wenn eine Paywall vorliegt und danach keine Werbung mehr angezeigt wird, dann darf man dem Bot auch die Werbung nicht zeigen. Nur dann wenn der Bot durch eine Paywall kommt und auch nur dann. 

Ich kann mir hier kaum eine Variante einer Paywall vorstellen, durch die man einen Googlebot führen könnte. Es wird kaum das Ziel der Suchmaschine sein, nur 2 Sätze und eine Paywall in den Top Ergebnissen zu zeigen. Generell sagt John eigentlich: Zeige dem Bot was der User sieht, nichts anderes.

Zu den E-Commerce/ Shop SEO Basics in Punkto Struktur

Eine theoretische Frage zu den Basics im Bereich E-Commerce SEO. Wenn ein Shop viele Artikel hat, dann möchte man vielleicht einige Artikel vor Google verbergen. Warum? Ja ist mir unklar, es scheint um den Pagerank zu gehen.

John sagt, hey arbeite mit nofollow als Hilfe und verwende Canonical-Tags für das, wofür sie da sind. Was im Grunde best Practice ist, bei E-Commerce SEO oder auch bei Website-Struktur Optimierung (z.B. der Facettennavigation).

Dann kam die Nachfrage zum Google Pagerank „sculpting“. Quasi dem schönen weiterleiten des Linkjuice, auf wichtige Seiten und fernhalten von unwichtigem. Oft viel zu stark betrieben, als das es einen Mehrwert hätte.

Es geht so:

  • URLs die nicht indexiert werden dürfen -> noindex (+ Canonical wenn eine indexierbare Version existiert)
  • URLs die eine sehr ähnliche Version haben und daher nur eine Primär gerankt werden soll (Filter usw.) -> Canonical auf die wichtige Version (andere können trotzdem auftauchen)
  • Unwichtige URLs die auf noindex stehen -> es könnte ein nofollow Link sein
  • halte es einfach! Die meisten Shopsysteme machen es schon vom Template her korrekt

Der Verständnisfehler war hier wohl, dass Google nicht möchte, dass du unzählig viele unnötige Seiten erstellst – korrekt. Aber wenn sie wichtig für den User ist, dann musst du sie nicht verstecken. Dann hat die URL ihre Daseinsberechtigung. Nehmt nicht alles immer 100 % wörtlich und genau. Es kommt zu Missverständnissen! Versuch es einfach nicht. Wirklich deutlicher konnte John nicht werden.

Wie viele Seiten crawlt der Googlebot

Sind es 200, 1000 oder 10.000 Seiten die der Googlebot crawlt, bis er eine Webseite verlässt. Es gibt von Googles Seite kein Limit, dass die Seiten begrenzt. Wenn der Content relevant ist, dann auch gern ein paar Millionen. Wenn nicht, dann wohl weniger.

Da die Bekanntheit einer Seite hier wichtig ist, kann es schon sein, dass eine neue Seite etwas mehr Zeit benötigt, als eine bekannte. Wenn von dir nicht alle Seiten indexiert sind, dann ist das übrigens nicht ungewöhnlich. Auch wenn es möglich ist, dass man bei kleinen Seiten (100 – 1.000 Unterseiten) alles wichtige indexiert bekommt, Google indexiert in der Regel nicht 100 % aller Seiten einer Domain

Die Frage übrigens nicht falsch verstehen und nicht verwechseln mit auf einer Seite verlinkte Seiten, wer eine Millionen Links auf einer Seite hat, der hat nicht nur ein Problem mit dem Googlebot.

Wichtiger war dann die Nachfrage. Warum muss ich eine Sitemap einreichen, dass Google meine URL findet? Wenn du das tun musst, dann existiert doch ein Problem. Der Bot folgt den Links deiner Seite, wenn er keine Seiten findet, dann weiß er nicht, wie die Seiten zusammenhängen. Er hat keine Ahnung was wichtig ist und was nicht. Das erkennt der Bot an interner Verlinkung. Wenn Googlebot deinen Links nicht folgt, dann sieht er diese vermutlich einfach nicht.

AB-Tests und Googlebot

Ein paar Dinge die wichtig sind, dass du keine Rankingprobleme bekommst

  • Googlebot verwendet keine Cookies, denke daran, wenn du Cookiebasierte Tests machst
  • Teste mit einem Crawler oder direkt in der Google Search Console was Google sieht, wenn du dir nicht sicher bist
  • Verwendest du verschiedene URLs, dann vergiss nicht den Canonical
  • Generell sind AB-Tests kein Problem, im Gegenteil

Googlebot und Javascript rendering

Googlebot für Javascript erst einmal aus, um die Seite zu rendern. Oft sind angebliche Beschränkungen tatsächlich Quatsch, weil wir gern einen Richtwert haben. Das allerdings ist ein ganz eigenes Thema. Ich wollte nur diesen Satz aufnehmen

@JohnMu : "Es ist nicht so, dass wir es ignorieren würden, aber wenn wir erkennen können, dass wir es ignorieren können, dann können wir es ignorieren!" #javascript #seo #rendering #webmaster #hangout #februar2020

Seiten deindexieren für Fortgeschrittene

Willst du Seiten schnell aus der Googlesuche (SERPs) entfernen und willst nicht warten. Erstelle eine Sitemap mit den entsprechenden Seiten die auf „noindex“ gesetzt sind. Setze die letzte Aktualisierung auf heute (also den Tag der Erstellung und des Hochladens der Sitemap bei Google) und sende sie zu Google via Google Search Console.

Aus 2 Seiten mach einer gut und wie

Erstmal ist es sinnvoll, wenn du weniger Domains zum gleichen Thema hast, also eine wäre gut. Es wächst zusammen was zusammengehört. Du wirst nicht besser bei Google gefunden, wenn du mehr Domains verwendest. Wenn du dein Wissen zu einem Thema auf einer Seite bündelst ist das gut in Punkto Expertise. Naja, und wenn du Backlinks gewinnst, hilft das auch jeder Seite weiter, nicht nur einer Domain. Aber wie?

  • Permanente Weiterleitung (301) auf eine Seite
  • Seite für Seite weiterleiten – nicht jede Seite auf die Homepage
  • nur auf thematisch relevante Seiten leiten, nicht Cat-Content auf SEO Tipps
  • Crawle die Seite neu und behalte sie für Benachrichtigungen im Konto

Meiner Erfahrung nach ist Google extrem schnell, die Zusammenführung zu verstehen oder Design-Relaunches.

Mag Google keine Schafe

Die Frage war nicht so ernst gemeint, es ging eher darum, warum eine Seite über Schafe in manchen Ländern nicht so gut gefunden wird, in anderen aber sehr gut. Das liegt oft an Konkurrenz- und eventuell an falscher Top-Level-Domain. Länderabhängige Domains haben natürlich Probleme in anderen Ländern. 

Mit Schafen hat Google aber auch Erfahrungen. Sie machten zum Beispiel 360° Bilder – aus Google Street View wurde quasi Google Sheep View. Und wenn man eine Wiese mähen lassen möchte, die unwegsam ist, dann schlägt Google auch Schäfer in deiner Region vor. Auch Ziegen werden vorgeschlagen, die ordert Google zum Mähen von diversen Flächen übrigens auch oft selbst.

Weitere SEO-News: