Was ist ein Webmaster Hangout von Google?
Die Google Webmaster Sprechstunden-Hangouts sind die Anlaufstelle für Webmaster und Webseitenbetreiber bei Fragen und Problemen mit Google und der Suche. Fragen beantwortet John Müller, Webmaster Trends Analyst bei Google in der Schweiz.
Wann war der letzte deutschen Webmaster Hangouts im Juni?
Am 25. Juni um 13:00 Uhr fand der letzte Juni Webmaster Hangout 2020 statt. Es sind die Deutschen Webmaster Sprechstunden (German Webmaster Hangouts) oder offiziell ist es auch der „deutsche Google Webmaster Sprechstunden-Hangout“ oder auch „deutscher Google Webmaster Central Sprechstunden-Hangout“ (wie es John immer selbst im Video nennt). Ich gehe hier auf die wichtigsten Fragen im letzten Juni Hangout ein.
Für das kommende Juli Webmaster Hangout 2020 kann man hier seine Fragen stellen und im Video eine Antwort erhalten oder direkt live am Hangout teilnehmen (der Link wird an gleicher Stelle in den Kommentaren geteilt) und eine Antwort bekommen.
Das Hangout Video vom 25. Juni 2020
Im Video wird auf mehr eingegangen, als ich hier aufnehme, ich versuche die Spreu vom Weizen zu trennen und unwichtiges zu Filtern. https://www.youtube.com/watch?v=DZssDHg2XyU
Seiten wegen Corona pausieren, quasi nur den Warenkorb ausschalten, was passiert mit den Rankings?
Die Vorgehensweise ist richtig, laufen lassen, Produkte indexiert lassen, nur das Kaufen pausieren. Das Ranking sollte verschont bleiben. Allerdings wäre es sinnvoll, das es eine gut sichtbare Anzeige gibt, wann es weitergehen wird.
Es ist für 1- 2 Monate sicher einfach möglich, aber ein Jahr solltest du das vielleicht nicht tun. Die Website muss laufen, das ist das A und O. Nicht komplett alle Seiten blockieren!
Seit dem Mobile Index sind viele Seiten de-indexiert, auch weniger Seiten bei der Site-Abfrage (siehe Suchoperatoren). Keine technischen Probleme sichtbar, was ist los?
Die Angabe der indexierten Seiten basiert auf einem Sample. Die Angabe wird wohl nie der Tatsache entsprechen, dass solltest du bedenken. Aber auf folgendes musst du achten:
- Mobil sind die gleichen Links zu sehen, wie auch auf Desktop
- Die Website funktioniert mobil, wie auch die Desktopversion
- Der Pagespeed ist gut
- Die Canonical-Tags stimmen
- Verwende für deine Seiten den Mobile Friendly Test, denn ist technisch alles OK, dann mangelt es an Qualität.
Es ist eher die Qualität, als ein technisches Problem, dass die Indexierung deiner Website blockiert.
Cookie Consent über dem eigentlichen Content OK? Oder ein SEO-Problem.
Ist es ein bekanntes Banner wie “Borlabs Cookie”, dann erkennt Google das Banner sicher, der Googlebot hat ihn ja schon X-Fach gesehen. Mit Redirects und ähnlichem solltest du nicht arbeiten. Denn diese Weiterleitung ist etwas, was der Googlebot nicht anschauen wird.
Ein solches Programm für rechtliche Banner sind OK und der Bot wird sie ausblenden. Googlebot hat die Übung. Weder du noch Google muss da wirklich etwas machen.
Immer mehr Spambacklinks zu Onlinecasino
Ich habe das bei Twitter auch erfragt, es gibt viele solche Spamlinks. Kein Grund zu Disavowen und Google wird das ohne dein Zutun entfernen. Natürlich kannst du die Links einzeln Disavowen und die Liste hochladen, aber ich sage dir, das ist kein Problem.
Der Link wird Disavowed (entwertet) aber trotzdem in der Google Search Console angezeigt.
Es wird übrigens oft gecloacked, das heißt der Googlebot denkt da ist ein Link zu X-Seiten oder zu Y-Content und der User bekommt den spammigen redirect zu – in diesem Fall einem Casino. Das wird seit Jahren gemacht und es liegt nebenbei nicht am Casino (vermutlich), sondern an jemandem, der so hofft Affiliate-Provision zu bekommen.
Sitemap mit tausenden Subdomains
Eine Sitemap für alles oder jede Subdomain eine eigene. Ich habe einen großen Beitrag über Sitemaps, denn es gibt Eintrags- und Größenbestimmungen und Grenzen. Gerade bei Subdomains und Co. Du findest den Beitrag hier.
Wenn die Sitemap in der robots.txt steht, dann spielt die Sitemap keine Rolle, verknüpfst du sie in der Search Console, dann muss die Domain stimmen. Auch die Subdomain. Die Crawlingsysteme sind auf Hostnames optimiert, das würde also lange dauern.
Besser du verwendest die “Eine Sitemap pro Subdomain” – Lösung, denn damit geht es:
- schneller
- sicher
- und länger mit der Eintraganzahl gut
Allerdings ist das für dich natürlich aufwändig.
Analytics & Search Console Daten – was wenn ich da hin- und herspringe, sind meine Daten schlecht für Verweildauer und Co, oder sogar gut?
Bei der Search Console sind es Tracking-URLs mit Weiterleitung. Deine Daten spielen keine Rolle, du hast keinen Einfluss und kannst dich selbst ja herausfiltern, da du ein Weiterleitungszugriff bist. Aber egal wie, der Rankingfaktor (wenn vorhanden) hast du keinerlei Einfluss, denn der ist deutlich zu klein.
Wie erwähnt, Google sagt es gibt den Faktor nicht, ich sage doch, aber: Du spielst bei Klicks auf Links keine Rolle, aber auch suchen und klicken bei Google bringt dich nicht voran oder zurück.
Internationale Websites – nicht .com, sondern doch TLDs?
Es gibt Länder- und Sprachzuordnung. Bei der Sprachzuordung spielt die Wahl gar keine Rolle, ob Länderspezifische TLD oder .com – total egal.
Anders bei den Ländern, denn hier brauchst du verschiedene Domains. Es geht, mittels Sub-Domain oder Sub-Folder, dann kannst du die Länderzuordnung in der Search-Console angeben.
Verwendest du allerdings die Optimierung für verschiedene Sprachen und Länder und du verwendest selbst hreflang, da macht Google die Zuordnung auch auf URL-Basis. Da spielt also die Domainendung keine wirkliche Rolle.
Mein Tipp ist – ändere was du hast nicht, wenn du hreflang korrekt verwendest. Wenn du neu Anfängst mit den internationalen Seiten, dann verwende (wie Amazon, eBay und Co) Länderspezifische TLDs, auch wenn SEOs dir hier was von “Linkjuice und Pagerank” erzählen, das spielt keine echte Rolle mehr.