Die Navigationselemente, die interne Verlinkund und die Struktur einzelner Seiten können folgendermassen für SEO optimiert werden.
Kerstin Reichert von Yourposition AG
Crawling-Bots von Suchmaschinen hangeln sich via Links von Webseiten zu Webseiten und speichern die einzelnen Seiten in ihrem Index, um sie bei Suchabfragen schneller zu finden, zu sortieren und in Suchresultatlisten darzustellen. D.h. nur indexierte Seiten können gefunden werden und alle Inhalte müssen für Bots lesbar sein, inklusive Styleelemente wie CSS oder JavaScript.
Grosse Web-Angebote müssen darauf achten, die relevantesten Seiten indiziert zu haben: Man kann sein Crawl-Budget auch überschreiten und der Crawler wechselt zu andern Seiten, wenn er zu viele Inhalte indizieren soll.
Such-Tools für die Analyse
Die interne Suche eines Webangebots gibt Einblicke über das Suchverhalten der Nutzer: Was haben sie gesucht, was wurde nicht gefunden? Welche Inhalte sollte man neu erstellen oder anpassen?
Per Eingabe von «site:Meine-Domain» im Google Suchfeld kann man einsehen, wieviele Seiten Google indiziert hat. Ist der Wert niedriger als die Anzahl Inhalte, kann der Bot wohl nicht alle Seiten finden.
Werden die wichtigsten Unterseiten als Site-Links ausgewiesen, erkennt Google die Seitenstruktur und Inhalte korrekt. Ist dem nicht so, kann man in der Google Search-Console einzelne Seiten als Site-Links deaktivieren, andere muss man inhaltlich anpassen. Man kann nicht einzelne Seiten als Site-Links definieren.
In Google Analytics sind die organischen Zugriffe einsehbar: Kommen die Leser über die relevanten Seiten auf das Angebot oder gibt es hier Anpassungsbedarf?
Der Screaming Frog SEO Spider ist günstig zu benutzen und liefert Informationen über die Crawlbarkeit der eigenen Website.
Usability: Finden sich User zurecht?
Relevante Kennzahlen liefern die Bouncerate, Aufenthaltsdauer und Seiten pro Besuch. Auch die Werte für die Ausstiegsseiten, Nutzung der internen Suche und wiederkehrende Benutzer sind wichtige KPIs.
Die Bouncerate gibt an, wieviele Nutzer auf das Webangebot kamen, sie dann aber gleich wieder verliessen. Die Aufenthaltsdauer kann anzeigen, ob jemand beim Besuch die Seite zwar gelesen hat, dann aber nicht weiterklickte. Und so also doch auch einen Bounce generierte. Höhere Werte für Seiten pro Besuch deuten auf gute Inhalte und gute Navigierbarkeit.
1. Navigationselemente
Eine schlanke Navigation ist für Bots und Nutzer von Vorteil: Man sollte in der Regel nicht mehr als 5 bis 7 Navigationspunkte anbieten. Die einzelnen Menupunkte sollen sprechend sein und so benannt, wie sie Nutzer erwarten.
Die Benutzerführung sollte eindeutig sein: «Schnäppchenangebot» oder «Willkommen» sind nicht eindeutig.
Grafiken als Navigation sind tendenziell schwieriger zu interpretieren. Sie sollten unbedingt mit Text und Alt-Text kombiniert werden.
Diese Regeln gelten selbstverständlich auch für die Subnavigation. Auch diese muss gut crawlbar sein.
Die URL-Struktur sollte auch sprechende Elemente enthalten und nicht IDs (Nice-URL).
Breadcrumbs helfen Nutzern und Suchmaschinen, die Hierarchie von grossen Webseiten zu interpretieren.
Filter & Sortiervarianten können die Navigation sinnvoll ergänzen. Hier ist in der URL darauf zu achten, für die verschiedenen Sortiervarianten nicht eigene URLs zu generieren, da diese für den Bot nicht relevant sind und das Ranking bei Suchmaschinen verwässern können.
In der Google Search Console kann man einzelne Parameter vom Crawling ausschliessen, um Duplicate Content über Sortiervarianten zu vermeiden. Auch via Canonical-Tag kann man Bots auf die relevanten Hauptseiten hinweisen.
Auch mit dem robots.txt-File kann man einzelne Seiten vom Index ausschliessen.
2. Interne Verlinkung
Die Startseite ist am meisten verlinkt und dadurch die stärkste. Von hier verweisen die Links auf die nächstwichtigsten Seiten.
Auf langen Content-Unterseiten können Inhaltsverzeichnisse mit Ankerlinks für bessere Lesbarkeit sorgen.
Interne Links innerhalb von Fliesstexten, z.B. «ähnliche Artikel» sind gute Signale für Bots, worum es bei den Inhalten geht. Hier sind 404-Fehler strikt zu vermeiden, da sie das Crawlbudget unnötig belasten und dem User eine schlechte Nutzererfahrung bringen.
Audisto ist eines der Tools, die Auswertungen über die eigenen «starken Seiten» liefern.
3. Inhaltsstrukturen
Man sollte hierarchisch strukturierte Überschriften verwenden mit H1 als wichtigster Überschrift. Die Absätze sollten kurz sein und mit Aufzählungen, Hervorhebungen oder Grafiken aufgelockert werden.
Der Einsatz von HTML5 hilft bei der Strukturierung der Inhalte.
Auch via schema.org lassen sich Inhalte strukturieren.
Suchmaschinen greifen diese Informationen auf und können sie z.T. als Rich-Snippets in Resultatlisten ausweisen. Tun sie das nicht, hilft ihnen die Inhaltsauszeichnung trotzdem für das bessere Verständnis.
Mit Googles Structured Data Testing Tool kann man prüfen, ob Google die Metainformationen richtig interpretiert.