SEO - das Buch mit sieben Siegeln?

Die Sache mit dem Blog hat mittlerweile ein ziemliches Ausmaß angenommen. Was als Projekt für eine Weiterbildung begann, ist mittlerweile irgendwie zum Selbstläufer geworden und manchmal, wenn ich gefragt werde, was ich so mache, erwähne ich auch, dass ich blogge. ABER: Man merkt dem Blog natürlich an, dass er nicht professionell aufgesetzt ist. Um SEO-Optimierung habe ich mich bisher nicht gekümmert. Nun will ich hier mal aufzeigen, mit was ich mich so rumschlage.

OK, ich schreibe für Menschen, nicht für Google, aber diese Menschen müssen auch irgendwie zu mir finden. 7 % find ich wirklich wenig und habe beschlossen, das in die Hand zu nehmen. Welche Probleme packe ich also zuerst an (es erwarten mich noch viele mehr):

Unerwünschter Traffic (Referral-Spam)

Ja diese Zugriffe ohne Verweildauer sind irgendwie mysteriös. Wieso kommen Menschen auf meine Seite und bleiben dann keine einzige Sekunde hier? Schuld für dieses "Senden von Traffic" ist wohl eine Schwachstelle bei Google Analytics. Ich will meist weder beim Lesen, noch beim Problem beheben sehr in die Tiefe gehen. Deshalb habe ich mir eine Liste potentieller Fehler gesucht um sie abzuarbeiten. Die Lösungsmöglichkeiten zu diesem Problem:

1. bekannte Bots (das sind die Quellen, woher der Traffic kommt) direkt bei Analytics blockieren.

2. unbekannte Bots kann man über die Statistiken finden und dann einzeln manuell blockieren.

Doppelte Inhalte

Das Google Kopien "abstraft" ist lange bekannt. Aber manchmal kommt es durch chaotische Verlinkungen oder doppelte Vergabe von URLs trotzdem zu doppelten Inhalten. Damit solche Probleme gefunden und behoben werden, empfiehlt der schlaue Blog mit der Fehlerliste ein Tool namens Screaming Frog. Die Lösung sind: rel=nanonical Tag, noindex Tags und die Angabe ob www. oder nicht www-links bevorzugt werden sollen.

Plötzliche Einbrüche im Traffic

Habe ich witzigerweise (oder auch nicht) auch schon erlebt - nämlich in den Sommerferien. Was bei einer Zielgruppe die vornehmlich aus Müttern besteht, jetzt nicht ganz schwer zu erklären ist. Aber: das kann auch tiefgehendere Gründe haben und die müssen dann behoben werden. Vielleicht wurde vergessen das Google Analytics Script nach einer Umgestaltung wieder einzubauen, man wurde von Google abgestraft oder vielleicht wurde sogar die Website gehackt.

Veraltete Sitemaps

Wird die Homepage erneuert oder umgebaut (der aufmerksame Leser weiß, dass waumama.de erst umgebaut wurde), müssen auch alle Pfade der Sitemap aktualisiert werden. Sonst sucht Google im irgendwo im nirgendwo.  Besonders Seiten die gelöscht wurden sind fatal.

Probleme mit der Geschwindigkeit

Ja die Geschwindigkeit. Riesige Bilder sind am Anfang kein Problem, der Blog wächst allerdings und die Datenmenge auch. Ist die Seite zu langsam, wird das im Ränking irgendwann sichtbar. Deshalb ist es notwendig auch die Geschwindigkeit zu optimieren. Auch dafür gibt es Tools. Checken kann man die Homepage mit einem Webpagetest.

Dann heißt es nur noch die Daten auch zu nutzen und zu optimieren. Dafür hat das genannte Programm auch ein paar Ansatzpunkte parat.

Screenshot vom Waumama-Test. Auf den ersten Blick ganz gut ... optimieren geht aber immer.
Screenshot vom Waumama-Test. Auf den ersten Blick ganz gut ... optimieren geht aber immer.

Neben den ganzen Problemen, die man so mit der SEO-Optimierung haben kann, ist natürlich auch noch der Inhalt relevant. Da hake ich jetzt auch noch mal ein. Denn irgendwie wird es mir dann doch zu technisch.

Bevor ihr euch jetzt Sorgen macht, dass ich nur noch Google-optimiere und nicht mehr frei Schn*** schreibe. Nee werd ich nicht. Ich bin immer noch bisschen auf Kriegsfuß mit der Google-Optimierung, aber das hier ist mein Lehrprojekt und deshalb muss ich auch durch so etwas durch. Das wird demnächst im Hintergrund passieren.

Für alle, die sich tiefer für SEO-Optimierung interessieren, gibt es spezielle Blogs zum Thema. Da haben die Infos dann auch Hand und Fuß. ;)

Kommentar schreiben

Kommentare: 0