Close Menu
Webmemo Consulting Walter Schärer | Generative AI Beratung
  • Home
  • Social Media
  • Online-Tools
X (Twitter) LinkedIn Facebook RSS
  • Home
  • Kontakt / Über mich
  • Datenschutz
  • Nach oben
Webmemo Consulting Walter Schärer | Generative AI Beratung
LinkedIn YouTube RSS
  • Home
  • Social Media
  • Online-Tools
Webmemo Consulting Walter Schärer | Generative AI Beratung
NavigationHome»SEO»Website-Struktur für SEO optimieren
Website Navigationsstruktur
SEO

Website-Struktur für SEO optimieren

Walter SchärerBy Walter Schärer28. April 20234 Mins Read
Hier teilen
LinkedIn Twitter Facebook Email

Die Navigationselemente, die interne Verlinkund und die Struktur einzelner Seiten können folgendermassen für SEO optimiert werden.

Kerstin Reichert von Yourposition AG

Crawling-Bots von Suchmaschinen hangeln sich via Links von Webseiten zu Webseiten und speichern die einzelnen Seiten in ihrem Index, um sie bei Suchabfragen schneller zu finden, zu sortieren und in Suchresultatlisten darzustellen. D.h. nur indexierte Seiten können gefunden werden und alle Inhalte müssen für Bots lesbar sein, inklusive Styleelemente wie CSS oder JavaScript.

Crawling und Indizierung durch Suchmaschinen
Crawling und Indizierung durch Suchmaschinen

Grosse Web-Angebote müssen darauf achten, die relevantesten Seiten indiziert zu haben: Man kann sein Crawl-Budget auch überschreiten und der Crawler wechselt zu andern Seiten, wenn er zu viele Inhalte indizieren soll.

Such-Tools für die Analyse

Die interne Suche eines Webangebots gibt Einblicke über das Suchverhalten der Nutzer: Was haben sie gesucht, was wurde nicht gefunden? Welche Inhalte sollte man neu erstellen oder anpassen?

Per Eingabe von «site:Meine-Domain» im Google Suchfeld kann man einsehen, wieviele Seiten Google indiziert hat. Ist der Wert niedriger als die Anzahl Inhalte, kann der Bot wohl nicht alle Seiten finden.

Werden die wichtigsten Unterseiten als Site-Links ausgewiesen, erkennt Google die Seitenstruktur und Inhalte korrekt. Ist dem nicht so, kann man in der Google Search-Console einzelne Seiten als Site-Links deaktivieren, andere muss man inhaltlich anpassen. Man kann nicht einzelne Seiten als Site-Links definieren.

In Google Analytics sind die organischen Zugriffe einsehbar: Kommen die Leser über die relevanten Seiten auf das Angebot oder gibt es hier Anpassungsbedarf?

Der Screaming Frog SEO Spider ist günstig zu benutzen und liefert Informationen über die Crawlbarkeit der eigenen Website.

Usability: Finden sich User zurecht?

Relevante Kennzahlen liefern die Bouncerate, Aufenthaltsdauer und Seiten pro Besuch. Auch die Werte für die Ausstiegsseiten, Nutzung der internen Suche und wiederkehrende Benutzer sind wichtige KPIs.

Die Bouncerate gibt an, wieviele Nutzer auf das Webangebot kamen, sie dann aber gleich wieder verliessen. Die Aufenthaltsdauer kann anzeigen, ob jemand beim Besuch die Seite zwar gelesen hat, dann aber nicht weiterklickte. Und so also doch auch einen Bounce generierte. Höhere Werte für Seiten pro Besuch deuten auf gute Inhalte und gute Navigierbarkeit.

1. Navigationselemente

Eine schlanke Navigation ist für Bots und Nutzer von Vorteil: Man sollte in der Regel nicht mehr als 5 bis 7 Navigationspunkte anbieten. Die einzelnen Menupunkte sollen sprechend sein und so benannt, wie sie Nutzer erwarten.

Die Benutzerführung sollte eindeutig sein: «Schnäppchenangebot» oder «Willkommen» sind nicht eindeutig.

Grafiken als Navigation sind tendenziell schwieriger zu interpretieren. Sie sollten unbedingt mit Text und Alt-Text kombiniert werden.

Diese Regeln gelten selbstverständlich auch für die Subnavigation. Auch diese muss gut crawlbar sein.

Die URL-Struktur sollte auch sprechende Elemente enthalten und nicht IDs (Nice-URL).

Breadcrumbs helfen Nutzern und Suchmaschinen, die Hierarchie von grossen Webseiten zu interpretieren.

Filter & Sortiervarianten können die Navigation sinnvoll ergänzen. Hier ist in der URL darauf zu achten, für die verschiedenen Sortiervarianten nicht eigene URLs zu generieren, da diese für den Bot nicht relevant sind und das Ranking bei Suchmaschinen verwässern können.

In der Google Search Console kann man einzelne Parameter vom Crawling ausschliessen, um Duplicate Content über Sortiervarianten zu vermeiden. Auch via Canonical-Tag kann man Bots auf die relevanten Hauptseiten hinweisen. 

Auch mit dem robots.txt-File kann man einzelne Seiten vom Index ausschliessen.

Filter- und Sortieroptionen können Duplicate Content generieren
Filter- und Sortieroptionen können Duplicate Content generieren

2. Interne Verlinkung

Die Startseite ist am meisten verlinkt und dadurch die stärkste. Von hier verweisen die Links auf die nächstwichtigsten Seiten.

Auf langen Content-Unterseiten können Inhaltsverzeichnisse mit Ankerlinks für bessere Lesbarkeit sorgen.

Interne Links innerhalb von Fliesstexten, z.B. «ähnliche Artikel» sind gute Signale für Bots, worum es bei den Inhalten geht. Hier sind 404-Fehler strikt zu vermeiden, da sie das Crawlbudget unnötig belasten und dem User eine schlechte Nutzererfahrung bringen.

Audisto ist eines der Tools, die Auswertungen über die eigenen «starken Seiten» liefern.

3. Inhaltsstrukturen

Man sollte hierarchisch strukturierte Überschriften verwenden mit H1 als wichtigster Überschrift. Die Absätze sollten kurz sein und mit Aufzählungen, Hervorhebungen oder Grafiken aufgelockert werden.

Der Einsatz von HTML5 hilft bei der Strukturierung der Inhalte. 

Auch via schema.org lassen sich Inhalte strukturieren.

Suchmaschinen greifen diese Informationen auf und können sie z.T. als Rich-Snippets in Resultatlisten ausweisen. Tun sie das nicht, hilft ihnen die Inhaltsauszeichnung trotzdem für das bessere Verständnis. 

Mit Googles Structured Data Testing Tool kann man prüfen, ob Google die Metainformationen richtig interpretiert.

#IBsuch Internet-Briefing Vortrag
Share. LinkedIn Twitter Facebook Email
Walter Schärer
  • Website
  • Facebook
  • X (Twitter)
  • LinkedIn

Walter Schärer ist ein Generative AI Marketing Manager und Solutions Architect und bloggt bei webmemo.ch über Trends in künstlicher Intelligenz KI.

Ähnliche Informationen

The Bored Apes ecosystem: Learnings from a native brand

16. Mai 2023

How Orange adds value in the Metaverse

17. Mai 2023

Demystifying the metaverse: A framework for business leaders

16. Mai 2023
Add A Comment
Leave A Reply Cancel Reply

Über Walter Schärer — Translating complexity into clarity

Systems that think. Stories that resonate.

Dies ist Walter Schärers Blog über Online-Themen wie AI, Digital Marketing, Search Engine Optimierung (SEO), Content Marketing und Performance Marketing.

Walter Schärer arbeitet seit 1994 als Scrum Product Owner und Online-Manager im Web-Umfeld.

  • Von HTML / VRML kam er via
  • Powerpoint / Word zu
  • Confluence / Jira dann
  • Trello / Whiteboard (Edding 500) und organisiert sich aktuell mit
  • Asana / Google Drive, wenn er nicht gerade mit
  • ChatGPT / MidJourney oder
  • WordPress / Elementor experimentiert.

«Programmierung» begann er mit

  • NoCode von Make und IFTTT,
  • LowCode von ChatGPT, Lovable und Databutton mit Upgrade zu tatsächlicher Programmierung in
  • Python auf Anaconda und dann in
  • Google Colab / Gemini / Claude Sonnet sowie
  • Visual Studio Code / GitHub Copilot / Claude Code / Cursor Composer 1

Die Inhalte dieses Blogs spiegeln meine persönliche Meinung und sind von keinem Arbeitgeber beeinflusst.

© 2010 - 2025 Webmemo Consulting | Walter Schärer | Crafted — not generated.
  • Home
  • Kontakt / Über mich
  • Datenschutz
  • Nach oben

Type above and press Enter to search. Press Esc to cancel.