Online Marketing Blog von Walter Schärer
  • Home
  • Social Media
  • Online-Tools
Twitter LinkedIn Facebook RSS
  • Home
  • Kontakt / Über mich
Twitter Facebook RSS
Online Marketing Blog von Walter Schärer
  • Home
  • Social Media
  • Online-Tools
Online Marketing Blog von Walter Schärer
Home»SEO»Website-Struktur für SEO optimieren

Website-Struktur für SEO optimieren

0
By Walter Schärer on 4. Februar 2016 SEO
Hier teilen
LinkedIn Twitter Facebook Email

Die Navigationselemente, die interne Verlinkund und die Struktur einzelner Seiten können folgendermassen für SEO optimiert werden.

Kerstin Reichert von Yourposition AG

Crawling-Bots von Suchmaschinen hangeln sich via Links von Webseiten zu Webseiten und speichern die einzelnen Seiten in ihrem Index, um sie bei Suchabfragen schneller zu finden, zu sortieren und in Suchresultatlisten darzustellen. D.h. nur indexierte Seiten können gefunden werden und alle Inhalte müssen für Bots lesbar sein, inklusive Styleelemente wie CSS oder JavaScript.

Crawling und Indizierung durch Suchmaschinen
Crawling und Indizierung durch Suchmaschinen

Grosse Web-Angebote müssen darauf achten, die relevantesten Seiten indiziert zu haben: Man kann sein Crawl-Budget auch überschreiten und der Crawler wechselt zu andern Seiten, wenn er zu viele Inhalte indizieren soll.

Such-Tools für die Analyse

Die interne Suche eines Webangebots gibt Einblicke über das Suchverhalten der Nutzer: Was haben sie gesucht, was wurde nicht gefunden? Welche Inhalte sollte man neu erstellen oder anpassen?

Per Eingabe von «site:Meine-Domain» im Google Suchfeld kann man einsehen, wieviele Seiten Google indiziert hat. Ist der Wert niedriger als die Anzahl Inhalte, kann der Bot wohl nicht alle Seiten finden.
Werden die wichtigsten Unterseiten als Site-Links ausgewiesen, erkennt Google die Seitenstruktur und Inhalte korrekt. Ist dem nicht so, kann man in der Google Search-Console einzelne Seiten als Site-Links deaktivieren, andere muss man inhaltlich anpassen. Man kann nicht einzelne Seiten als Site-Links definieren.

In Google Analytics sind die organischen Zugriffe einsehbar: Kommen die Leser über die relevanten Seiten auf das Angebot oder gibt es hier Anpassungsbedarf?

Der Screaming Frog SEO Spider ist günstig zu benutzen und liefert Informationen über die Crawlbarkeit der eigenen Website.

Usability: Finden sich User zurecht?

Relevante Kennzahlen liefern die Bouncerate, Aufenthaltsdauer und Seiten pro Besuch. Auch die Werte für die Ausstiegsseiten, Nutzung der internen Suche und wiederkehrende Benutzer sind wichtige KPIs.

Die Bouncerate gibt an, wieviele Nutzer auf das Webangebot kamen, sie dann aber gleich wieder verliessen. Die Aufenthaltsdauer kann anzeigen, ob jemand beim Besuch die Seite zwar gelesen hat, dann aber nicht weiterklickte. Und so also doch auch einen Bounce generierte. Höhere Werte für Seiten pro Besuch deuten auf gute Inhalte und gute Navigierbarkeit.

1. Navigationselemente

Eine schlanke Navigation ist für Bots und Nutzer von Vorteil: Man sollte in der Regel nicht mehr als 5 bis 7 Navigationspunkte anbieten. Die einzelnen Menupunkte sollen sprechend sein und so benannt, wie sie Nutzer erwarten.

Die Benutzerführung sollte eindeutig sein: «Schnäppchenangebot» oder «Willkommen» sind nicht eindeutig.

Grafiken als Navigation sind tendenziell schwieriger zu interpretieren. Sie sollten unbedingt mit Text und Alt-Text kombiniert werden.

Diese Regeln gelten selbstverständlich auch für die Subnavigation. Auch diese muss gut crawlbar sein.

Die URL-Struktur sollte auch sprechende Elemente enthalten und nicht IDs (Nice-URL).

Breadcrumbs helfen Nutzern und Suchmaschinen, die Hierarchie von grossen Webseiten zu interpretieren.

Filter & Sortiervarianten können die Navigation sinnvoll ergänzen. Hier ist in der URL darauf zu achten, für die verschiedenen Sortiervarianten nicht eigene URLs zu generieren, da diese für den Bot nicht relevant sind und das Ranking bei Suchmaschinen verwässern können.
In der Google Search Console kann man einzelne Parameter vom Crawling ausschliessen, um Duplicate Content über Sortiervarianten zu vermeiden. Auch via Canonical-Tag kann man Bots auf die relevanten Hauptseiten hinweisen. Auch mit dem robots.txt-File kann man einzelne Seiten vom Index ausschliessen.

Filter- und Sortieroptionen können Duplicate Content generieren
Filter- und Sortieroptionen können Duplicate Content generieren

2. Interne Verlinkung

Die Startseite ist am meisten verlinkt und dadurch die stärkste. Von hier verweisen die Links auf die nächstwichtigsten Seiten.

Auf langen Content-Unterseiten können Inhaltsverzeichnisse mit Ankerlinks für bessere Lesbarkeit sorgen.

Interne Links innerhalb von Fliesstexten, z.B. «ähnliche Artikel» sind gute Signale für Bots, worum es bei den Inhalten geht. Hier sind 404-Fehler strikt zu vermeiden, da sie das Crawlbudget unnötig belasten und dem User eine schlechte Nutzererfahrung bringen.

Seoratio oder Audisto sind Tools, die Auswertungen über die eigenen «starken Seiten» liefern.

3. Inhaltsstrukturen

Man sollte hierarchisch strukturierte Überschriften verwenden mit H1 als wichtigster Überschrift. Die Absätze sollten kurz sein und mit Aufzählungen, Hervorhebungen oder Grafiken aufgelockert werden.

Der Einsatz von HTML5 hilft bei der Strukturierung der Inhalte. Auch via schema.org lassen sich Inhalte strukturieren. Suchmaschinen greifen diese Informationen auf und können sie z.T. als Rich-Snippets in Resultatlisten ausweisen. Tun sie das nicht, hilft ihnen die Inhaltsauszeichnung trotzdem für das bessere Verständnis. Mit Googles Structured Data Testing Tool kann man prüfen, ob Google die Metainformationen richtig interpretiert.

#IBsuch Internet-Briefing Vortrag
Share. LinkedIn Twitter Facebook Email
Walter Schärer
  • Twitter
  • LinkedIn

Walter Schärer bloggt über Internet-Trends im Online Marketing, Social Media, Blogs, Web Analytics, SEO, Mobile und so.

Ähnliche Informationen

Seitenstruktur ändern: Ordner in einer URL entfernen und mit Regex weiterleiten

31. Januar 2023

Inhalte optimieren für Rich Snippets oben auf Googles Trefferliste

4. Februar 2023

Was mich mein gescheitertes Startup gelehrt hat

9. Mai 2019

Leave A Reply Cancel Reply

Über Walter Schärer

Dies ist Walter Schärers Blog über Internet-Themen wie Online Marketing, Search Engine Optimierung (SEO) oder Content Marketing.

Walter Schärer arbeitet seit 1994 als Scrum Product Owner und Online-Manager im Web-Umfeld.

Von HTML/VRML kam er via Powerpoint/Word zu Confluence/Jira dann Trello/Whiteboard und organisiert sich aktuell mit Asana/Google Drive, wenn er nicht gerade mit Blender/Python oder WordPress/Elementor experimentiert.

Die Inhalte dieses Blogs spiegeln die persönliche Meinung.

Neuste Webmemos

Framework for wrapping your head around generative AI

12. März 2023

Exploring the Metaverse: What it is and why it’s more than just roads and buildings

11. März 2023

AI tools to streamline online work processes

13. März 2023

List of generative AI tools for different purposes

12. März 2023
© 2010 - 2023 Webmemo | Walter Schärer's Blog
  • Home
  • Kontakt / Über mich
  • Datenschutz
  • Nach oben

Type above and press Enter to search. Press Esc to cancel.