SEO-Fehler

Häufige SEO-Fehler

10 gravierende SEO Fehler die du vermeiden solltest

Zu Beginn einer SEO-Karriere macht ein Jeder noch diverse SEO-Fehler. Manche sieht man nicht selbst und diese Fehler gilt es zu vermeiden.

Man versucht weiter besser zu werden, SEO zu lernen und vergisst zu analysieren, was man macht. Man geht einen SEO-Blog nach dem anderen durch, ließt neues und lernt mit SEO-Tutorials.

Es geht einfach nicht mehr voran im Ranking. Die Seite wird nicht besser, dass könnte an einem dieser SEO-Fehler liegen. Meißt sind sie unscheinbar, aber doch gravierend. Darum haben ich hier 10 grobe SEO-Fehler zusammengestellt!


Indexierung & Deindexierung

Es beginnt schon bei den Meta-Tags und der Robots.txt – Es kommt vor, dass der Google-Bot bestimmte Inhalte nicht indexieren soll. Wie erldigt man das? Mit der Robots.txt und einem Disallow? Falsch! Dafür gibt es das Meta-Robots-Tag für den Head und dem Inhalt „noindex“. Ein Disallow in der Robots.txt würde dem Bot verbieten den Inhalt zu sehen, indexieren würde er bei guter Verlinkung trotzdem!

Ihr wollt seiten deindexieren, dann mit dem Meta-Robots-Tag und noindex. Nicht mit der Robots.txt und disallow. Auch nicht mit beidem zeitgleich! Denn beides würde auch zur Indexierung führen. Die Robots.txt würde verbieten, dass der Bot das Meta-Robots-Tag mit noindex lesen darf. Damit würde die Seite doch indexiert werden. Ihr habt das bestimmt schon mal gesehen…

SEO-Fehler Indexierung

Eine Seite die indexiert wurde, trotz disallow in der Robots.txt. Sie sieht im Google SERP so aus.

Es ist tatsächlich der häufigste SEO-Fehler, den Webmaster überall auf der Welt begehen.

Nicht-Indexierung kann nur mit dem Meta-Tag-Robots passieren, nie mit der Robots.txt

Blockierte Ressourcen

Google möchte alle Ressourcen sehen, die eine Website verwendet. Jedes Bild, jedes Script, jedes CSS. Viele Websites blockieren diese Ressourcen. Ein WordPress-Plugin zum Beispiel, dass auf Images oder Scripte in „WP-includes“ zugreift, dieser Ordner ist in der Regel verboten. Ein SEO-Fehler der häufig durch Unachtsamkeit oder Unwissen passiert.

Die Google-Search-Console warnt Webmaster und SEO’s vor diesem Fehler, also nutzt die Search Console! Blockierte Ressourcen führen zu schlechteren Rankings – umgehend. Verbessert euer Google Ranking und hebt die Blockierung auf. Dafür genügt meist eine Zeile in der Robots.txt. Manchmal nur ein Zeichen!

Mit der Robots.txt muss Google jede verwendete Ressource (Bild, Style, Script, etc) erlaubt werden!

Keyword Kannibalisierung

Vermutlich liegt es an Gerüchten zu einer Keyworddichte oder dem falschen Verständnis für Keywords – Keyword-Cannibalization ist ein immer wieder auftauchender SEO-Fehler.

Bei disem Fehler gibt es mehrere Seiten die auf das gleiche Keyword optimiert sind. Sei es durch fehlende Paginierung, Canonicals oder einfach ein falsches Filtersystem in Online-Shops. Meistens aber passiert der Fehler absichtlich. Man optimiert mehrere Seiten auf das gleiche Wort um möglichst viel zum Thema zu sagen. Oder optimiert eine Seite für SEO und eine Suchmaschinenoptimierung (am Ende bleibts das Gleiche) und tauscht nur das Keyword. Das funktioniert so nicht, weil die Maschine am Ende quasi nicht entscheiden kann: „Wen soll ich zeigen?“. Statt gut optimiert, fehltoptimert.

Auf ein und dasselbe Keyword sollten nie mehrere Seiten optimiert werden!

Optimierung für Maschinen

Dieser letzte Hinweis ist ein genereller SEO-Fehler. Optimieren für die Maschine ist der falsche Weg. Wenn etwas nur für den Bot gemacht wird, ohne damit einen Fehler zu verhindern oder an den Menschen gedacht zu haben.. Das geht oft nach hinten los.

Optimize for human beings not for the machines

Für Maschinen gibt es technische Optimierungen, keine Inhaltlichen (Linksammlungen im Footer, Spezielle Linkseiten, …)

Betrugsversuche und old school

Oft handelt es sich auch beim letzten Punkt um Betrugsversuche. Wenigsten ums austricksen. Diese Maschine betrügen, die Betrugsversuche mit diversen Updates (wie Panda oder Penguin) bestraft. Der Versuch die Maschine zu betrügen wird daneben gehen. Es funktioniert nicht, weder der weiße Text auf weißem Grund, noch „display:none“ oder viel ernst zu nehmendere Versuche helfen.

Seit es die Suchmaschinen gibt, gibt es Betrugsversuche. Dadurch kennt Google auch wirklich jede Idee, eure ist nicht neu. Eine Suchmaschine bei der an sehr vielen Ergebnissen eine künstliche Intelligenz beteiligt ist, die lässt sich nicht betrügen. Jeder Versuch ist ein SEO-Fehler mit harten Strafen als Folge.

Spielt nicht gegen Google Guidelines!

Inhalt und Mehrwert

Viel schreiben ist gut, weil Content is King? Unique muss der Content sein, also schreiben wir was um? Nein, auch das ist ein Fehler. Unique Content in dem man umdichtet, dass ist nicht unique oder anders. Was Google wirklich will ist Mehrwert (Value) für den User. Nur etwas zu wiederholen was andere sagen (auch in anderen Worten) bringt Null Punkte.

Das wäre die eine Content-Frage, eine andere ist das formulieren für Maschinen. Ob SEO Optimierung (was falsch ist, weil es Suchmaschinenoptimierung Optimierung bedeutet) zu schreiben, nur weil es gesucht wird, oder Präpositionen und Pronomen wegzulassen, weil das Keyword so häufiger gesucht wird. Traut dem Kern-Algorithmus etwas mehr zu und schreibt für Menschen.

Write for human beings not for the machines

Texte schreibt man für Menschen, nicht Maschinen!

Linkstruktur

Welches ist deine am häufigsten verlinkte Seite? Eine Landingpage? Oder die AGB, der Warenkorb, Kontakt und Impressum? Da fällt einem der Fehler erst auf, dass es möglich ist, dass unwichtige Seiten hauptsächlich verlinkt werden. Das Lösen des Problems ist leicht, checkt mit einem Spider (siehe SEO Tools) die Domain und verlinkt, was wirklich wichtig ist am meisten.

Verlinkt eure wichtigsten Seiten am häufigsten, achtet auf Response Code 200 und das keine Canonicals auf andere Seiten zeigen.

Mixed Content, HSTS und 30x

Viele haben es gehört, Sicherheit ist ein Rankingfaktor und SSL mittlerweile (auch wegen den DSGVO Richtlinien für Webseiten) unumgänglich. Auch wenn SSL als Rankingfaktor nur ein kleiner ist. Manchmal ist nach der Umstellung auf SSL beim Hoster schluss.

Um wirklich sicher zu sein, solltet eine Website nur über https kommunizieren und HSTS verwenden. Ihr müsst außerdem auf https weiterleiten, alles. Es dürfen nur noch interne https-Links existieren, also schaut euch eure Seite an und stellt die Links um. Nicht nur im Menü, auch in Beiträgen, CSS, im Template. Jede übriggebliebene Weiterleitung macht die Seite langsam.

Und wo wir bei Weiterleitungen sind:

  • 301 – permanente Weiterleitung – für immer – vererbt Linkkraft
  • 302 – temporäre Weiterleitung – vorübergehend – vererbt keine Linkkraft

Wer SSL verwendet, der sollte auch HSTS aktivieren und intern nur noch https verwenden.

Planlos – keine Strategie

Einer der größten SEO-Fehler überhaupt ist Planlosigkeit. Da wird eine Maßnahme nach der anderen abgefackelt, aber es fehlt jede SEO-Strategie. Keine Ziele, keine Zeiten, nur Maßnahmen. Das funktioniert schon irgendwie, aber eben nicht planbar, zielorientiert oder irgendwie sinnvoll.

Macht euch einen Plan.

Fehlende Überwachung

Und zu dem Plan gehören Ziele, ob Ziele erreicht werden oder nicht, das sollte man überwachen. Genauso wie die zuletzt getroffenen Maßnahmen und deren Wirkung. Ein weiterer SEO-Fehler ist es, einfach nicht zu überwachen, was man tut. Ihr solltet eure Top-Rankings, organischen Besucher und andere wichtige KPIs (Key Performance Indicator) immer kennen.

Monitored eure Erfolge, Fehlschläge und KPIs.

Lasst SEO-Fehler hinter euch

Beginnt mit einer Strategie, einem Plan und lernt nicht aus. Überwacht eure KPIs und Maßnahmen. Kopiert nicht nur, auch nicht die Konkurrenten. Macht eure Website und das Internet besser! Dann werdet ihr gefunden.

Das könnte dich interessieren:
Eine Website bei Google anmelden ist kostenlos und einfach! Eine Website bei Google anmelden oder eintragen ist ganz einfach. und absolut kostenlos. Einzig kann es auf mehrere Arten geschehen. ...
Keyword Cannibalization: Wie viele Seiten dürfen das gleiche Keyword verwen... Keyword Cannibalization ist ein Problem, mit dem sich noch nicht viele Webmaster befassen. Es geht um folgendes Problem: Ihr habt ein...
SEO im Jahr 2016: So bleibst du bei Google sichtbar SEO im Jahr 2016 - Ein Blick zurück nach vorn! Nach dem Zurück in die Zukunft nun für immer eine Reise in die Vergangenheit ist, möch...