Onpage SEO mit Prozessen und Strukturen effizient organisieren

  • Published on
    23-Jan-2018

  • View
    59

  • Download
    1

Embed Size (px)

Transcript

  • Onpage SEO mit Prozessen und Strukturen effizient

    organisieren

    Stefan Keil 17.11.2017

  • info@gettraction.de

    Standort Berlin

    Wielandstrae 9, 12159 Berlin

    030 / 85 75 74 67 berlin@gettraction.de

    Standort Frankfurt

    Myliusstrae 14, 60323 Frankfurt a.M.

    frankfurt@gettraction.de

  • SEO-Prozesse: viele kleine Teilttigkeiten

    Auslser/Trigger

    Verantwortlicher

    Ergebnis / Manahme

    Ereignis: Worst-Case ist

    Performanceverlust, im

    besten Fall, nur eine E-Mail

    vs.

    turnus: regelmige

    Betrachung und ggf.

    Analyse

    Immer ein SEO:

    Technisch, Redaktion,

    Anpassungen an:

    - Content

    - IT

    - Informationsarchitektur

    Tools und Werkzeug

    Checklisten, Crawler, Tools,

    Dokumentationen

  • Der SEO-Prozess im groben berblick

    IT-SEOInformations-

    architektur

    Zielgruppe und Angebote

    Nachfragesituation

    (Keyword-Analyse)

    Wettbewerbsanalyse (Wer

    wird gefunden? Was wird

    angeboten?

    Angebotsdefinition

    Domain & URL

    Management

    Website Architecture

    (Duplicate Content)

    Geschwindigkeit /

    Ladezeit

    HTML-Optimierung

    IT-Flexibilitt

    Feeds & Sitemaps

    Strukturierte Daten

    (schema.org)

    Mobile Optimierung

    Aufbau

    nachfrageorientierte

    Informationsarchitektur

    Place of Information

    Information Scent

    Siloing

    Verlinkungsziele pro

    Seitentyp

    Inhaltliche Erschlieung

    und Vernetzung

    Visualisierung &

    Funktionale Wireframes

    Redaktionsplanung

    SEO im

    Redaktionsprozess

    Bestandsoptimierung und

    Content Maintenance

    Ausbau und Pflege vs.

    Neuerstellung

    Cornerstone-Inhalte und

    Republishing

    Zieldefinition Outreach

    Content Planung &

    Erstellung

    Bedeutung von Links

    Optimierung bestehender

    Linkprofile

    Identifikation von

    Linkopportunitten

    Social Media Optimization

    Linkbaits

    Controlling

    und Forecast

    Suchanfragen (offene

    Potenziale? Erreicht der

    Nutzer die Seiten am

    richtigen Ort?)

    Webanalyse (Quanitative

    Betrachtung, Trafficqualitt,

    Nutzerverhalten)

    IT-Hygiene (Crawlen der

    Seite, IT-Fehler finden und

    beheben)

    Content-

    planung & -

    erstellung

  • Prozessthemen im Onpage-SEO

    Onpage-SEO

    Prozesse

    Weiterleitungen

    Weiterleitungs-ketten

    404 / 410 / soft-404

    Doppelte Titles und

    Descriptions

    Aktualisierung der

    Inhalte

    Anpassung an das

    Suchverhalten

    Depublizieren und

    Lschen

    Ausrichtung Titles und

    Description

    Anpassung h1

    Erfassung Suchmuster

    und Facetten

    Alerting-System

    Regelmiges

    Monitoring

    IT

    Content

    IT-SEOInformations-

    architekturContent

    Alerting &

    Monitoring

  • You know all the tasks and your priorities suck.

  • Kontext der Themen betrachten

    Wann sollte meine IT mir Sorgen bereiten?

  • Jedes Projekt ist anders Relevanz und Impact nach Case

    Ca. 5.000 Seiten

    Shop- und Content-

    Bereich

    Wordpress und

    Magento

    Kurze Wege (3

    Mann Online

    Abteilung)

    Entwicklung und

    Update nach Bedarf

    Ca. 800.000 Seiten

    50-150 Artikel pro

    Tag

    Hoher

    Abstimmungsbedarf

    zwischen IT

    Marketing und

    Redaktion

    2 Wochen Sprints:

    SEO ein kleiner

    Stakeholder von

    vielen

    Ca. 100.000 Seiten

    Shop- und Content

    eng vermischt

    Filialist: Hohe

    Abstimmung

    zwischen online und

    offline

    Online Marketing

    intern IT extern

    3 Wochen Sprints:

    SEO ein kleiner

    Stakeholder von

    vielen

    Mittelstand Retailer Publisher

    Ca. 1.500.000 Seiten

    Verzeichnisse oder

    Kleinanzeigen

    UGC Anzeigen oder

    Detailseiten und fixe

    Kategorie

    Hohe Abstimmung

    zwischen IT und

    Marketing

    externe Texter fr

    SEO

    2 Wochen Sprints

    Index-Riese

  • Jedes Setup birgt eigene

    Risiken groe und

    komplexe Systeme mit

    verteiltem Arbeiten sind

    z.B. fehleranflliger

    Wo liegen die Wachstumshebel und Risiken?

    Wie hufig sollte ich den

    Prozess anstoen?

    Jeder Prozess behandelt

    hier ein Problem oder eine

    Chance wie gro sind die

    Auswirkungen wenn es

    eintritt?

    Risiko Auswirkung Monitoring / Frequenz

    Mittelstand Retailer Publisher Index-Riese

    Relevanz

    Auslser / Trigger:

    Ereignis vs. Turnus

    Relevanz

  • 1.4k seite n oder so :O

    Grundoptimierung muss vorhanden sein

    Und noch eine Anmerkung

  • IT-SEO

    Prozesse zur

    Sicherung der

    Basis

  • Ziel: Nutzbarkeit und Crawlbarkeit erhalten!

    Nutzung und NutzbarkeitCrawling und Crawlbudget

    Taking crawl rate and crawl demand

    together we define crawl budget as the

    number of URLs Googlebot can and wants to

    crawl.

    Crawl rate limit:

    limits the maximum fetching rate for

    a given site

    Crawl demand:

    if there's no demand from indexing,

    there will be low activity from

    Googlebot.

    Einstiege auf Fehlerseite

    Intern verlinkte Fehlerseiten

    Verzgerungen im Laden der Seite durch

    (interne) Weiterleitungen und

    Weiterleitungsketten

    Einstieg auf Seitenfragmenten (keine weitere

    Aktion durchfhrbar)

    Quelle: https://webmasters.googleblog.com/2017/01/what-crawl-budget-means-for-googlebot.html

  • Kritische Stolpersteine in der Crawlability

    We found that the low-value-add URLs fall

    into these categories, in order of significance:

    Faceted navigation and session identifiers

    On-site duplicate content

    Soft error pages

    Hacked pages

    Infinite spaces and proxies

    Low quality and spam content

    Quelle: https://webmasters.googleblog.com/2017/01/what-crawl-budget-means-for-googlebot.html

    Soft 404

    Status 200, index, follow

  • Nutzern ermglichen, meine Seite sinnvoll zu nutzen

    Mobile to Responsive Umzug

    m.domain.de

    45 ms

    www.domain.de/

    page?id=12

    81 ms

    www.domain.de/

    sprechende-url

    166 ms

    302 301

    81 ms (28%) unntige Ladezeit

  • klassische IT-Fehler interne und externe Fehlersichten

    Tools (intern) Tools (extern)

    Weiterleitungen

    Fehlerseiten

    Doppelte

    Metaangaben

    Doppelte H1

    Und viele mehr

    Alles was crawlt.

    Achtung: Problemseiten

    mssen intern Verlinkt sein!

    Und andere

    Webanalyse-Tools

  • Redirect(-ketten) identifizieren und abbauen

    Crawlbudget schonen

    Ladezeit (vor allem mobil) nicht unntig

    erhhen

    Warum?

    1. Regelmige Crawls durchfhren

    2. Redirects identifizieren

    a. Priorisierung nach Hufigkeit der

    internen Verlinkung

    b. Templatebasierte Verlinkungen

    (Seitenweit u..) zuerst!

    3. Automatische Verlinkungen

    korrigieren lassen

    4. Redaktionelle Fehler korrigieren

    und Redakteure sensibilisieren!

    Redirect Chains mit dem Screaming Frog

    Mittelstand Retailer Publisher Index-Riese

    Relevanz

    Turnus

  • Fehlerseiten (404, soft 404, 410) identifizieren und abbauen

    Schlechte Nutzererfahrung

    Konversionskiller

    Crawlbudget besonders bei internen Fehlern

    stark beansprucht

    Seitenhygiene

    Warum?Intern verlinkt Externe Meldung

    Google Analytics /

    Webanalyse

    Google Search Console

    Crawler

    Google Analytics /

    Webanalyse

    Google Search Console

    1. Monitoring (GSC) / Regelmige

    Crawls durchfhren

    2. Fehlerseiten identifizieren

    a. Priorisierung nach Hufigkeit der

    internen Verlinkung

    b. Templatebasierte Verlinkungen

    (Seitenweit u..) zuerst!

    3. Automatische Verlinkungen

    korrigieren lassen

    4. Redaktionelle Fehler korrigieren

    und Redakteure sensibilisieren!

    Mittelstand Retailer Publisher Index-Riese

    Relevanz

    Turnus oder Event

  • Fehlerseiten (404, soft 404, 410) identifizieren und abbauen

    Ab einer gewissen Fehlermenge ist die

    Fehleranalyse und Fehlersichtung nur noch

    sehr schwer mglich.

    Detailliertes Monitoring (Verzeichnisebene)

    der Fehler laut GSC hilft fr einen groben

    berblick.

    Relevanz beachten:

    4.000 Fehler als stabiles Grundniveau

    200 neue Fehler

    Fehleranalyse mit schlechter Sicht aufwndig

    Wirkung gering

    Warten bis erffnete Tickets bearbeitet wurden

  • Nicht jeder 404er ist schlecht!

    Die echten Fehler finden

    Seiten lschen ist erlaubt. Wobei bei einer

    dauerhaften Lschung der Statuscode 410

    vorzuziehen ist.

    Gelschte Inhalte sollten aber nicht mehr verlinkt

    sein.

    Arbeitsschritte:

    Angeblichen 4XXer prfen, ob er auch 4XX ist

    4XXer klicken um Pop-Up der verlinkten Seiten

    zu bekommen

    Prfen, ob die verlinken Seiten noch erreichbar

    sind

    Prfen, ob die Verlinkung noch vorhanden ist

    ToDos:

    Intern: Links entfernen oder auf neues Ziel

    setzen

    Extern: Wenn guter Link, Zielseite weiterleiten

  • Nicht jeder 404er ist schlecht!

    Die echten Fehler finden

    Das will natrlich niemand per Hand machen,

    also bemhen wir R:

    Prft, ob 4XXer noch 4XXer ist.

    Prft, ob die linkgebenden Seiten noch

    vorhanden sind.

    Prft, ob die Links auf den linkgebenden

    Seiten noch vorhanden sind.

    Erzeugt eine Excel-Datei mit den wirklich

    vorhandenen 404ern sowie den echten

    linkgebenden URLs

    Alle anderen URLs werden als behoben an

    die GSC gemeldet.

  • 404-Fehler prfen und entfernen: Das Script zum Download

    https://www.gettraction.de/blog/gsc-

    404er-mit-r-automatisert-pruefen/

  • GSC-Report: doppelte Titles und Descriptions identifizieren

    Etwas versteckter Bericht in der Google

    Search Console.

    Vorteil: findet Fehler, die nicht intern verlinkt

    sind

    Nachteil: Bericht ist oft veraltet

    Seiten sind bereits kanonisiert

    Seiten sind auf noindex, follow

    Seiten bereits 404/410

    Seiten werden via 301 weitergeleitet

    Explodiert oft bei einem Relaunch oder

    Umstrukturierungen

    Beispiel-

    URLs

  • Doppelte Titles und Descriptions identifizieren

    Zeigen Duplicate Content Probleme an

    Eindeutigkeit von Seiten gewhrleisten

    Nutzer wissen nicht welcher Treffer relevant

    ist

    Titel hat Rankingrelevanz

    Warum?

    Sprachverzeichnisse

    Hosts

    Trailing-Slash

    Sprechende vs. Nicht sprechende URLs

    http://www.domain.de/de-de/

    http:// www.domain.de/en/

    http://www.domain.de/

    https://www.domain.de/

    https://www.domain.de/produkte/

    https://www.domain.de/produkte

    https://www.domain.de/produkte-19/

    https://www.domain.de/?id=19

    Mittelstand Retailer Publisher Index-Riese

    Relevanz

    Event und Turnus

    http://www.domain.de/de-de/http://www.domain.de/de-de/http://www.domain.de/en/http://www.domain.de/http://www.domain.de/de-de/https://www.domain.de/produkte/https://www.domain.de/produkte/https://www.domain.de/produkte-19/https://www.domain.de/?id=19

  • GSC-Report: doppelte Titles und Descriptions

    Das will natrlich niemand per Hand

    machen, also bemhen wir Knime:

    Einlesen des GSC-Exports

    Transponieren der URLs

    Abgleich mit Screaming Frog Crawl

    Filterung auf die relevanten URLs

    Antworten die URL mit 200 OK?

    Sind die URLs indexierbar?

    Canonical Tag

    Robot-meta

    Robots.txt

    Fehler prfen und Anforderungen an die IT

    stellen!

    Die echten Fehler finden

  • Zusammenfassung: Glcklicher Crawler freudiger Nutzer

    Nutzbarkeit erhht

    Conversionskiller entfernt

    Erwartungskonformitt erhht

    Crawling optimiert

    Unntige Ladezeit vermieden

  • Informations-

    architektur

    Nutzer und

    Seite

    zusammen-

    zubringen

  • Nutzer und Inhalte zusammenfhren

    Place of Information (Wo)

    Information Scent (Wohin)

    Frage:

    Wo bin ich?

    Bin ich hier richtig?

    Passende

    Suchanfrage auf

    der Seite hilft

    Nutzern und

    Suchmaschinen

    Anforderung:

    Suchanfrage in Titel (SERP)

    Suchanfrage in die

    berschrift

    berschrift entsprechend

    gro

    Frage:

    Wo sind mehr

    relevante Inhalte?

    Wie weit sind diese

    entfernt

    Nutzerzentrierte

    explizite Sprache

    untersttzt eine

    schnelle

    Orientierung

    Anforderung:

    Einfache & verstndliche

    Navigation

    Relevante Inhalte schnell

    erreichbar

    Wo bin ich und wohin kann ich gehen sind die zentralen Fragen der Informationsarchitektur.

    Nur die Nutzer, die diese Fragen fr sich beantworten knnen, knnen die gewnschten Informationen oder Produkte finden.

  • Anpassung der Titles und Descriptions

    Erwartungskonformitt steigern

    Nutzern Relevanz signalisieren

    Klickattraktivitt steigern

    nderungen im Anfrageverhalten und im

    Informationsbedarf erkennen und bedienen

    Warum?

    Mittelstand Retailer Publisher Index-Riese

    Relevanz

    Turnus

  • Anpassung der berschrift(en)

    Relevanz fr Suchende steigern.

    Erstes Prfen der Seite Skimming und

    Scanning erffordert Beweise.

    Bin ich hier richtig? Ja!

    Warum?Skimming Scanning Lesen

    Mittelstand Retailer Publisher Index-Riese

    Relevanz

    Turnus

  • Dimensionen und Facetten erkennen

    Suggests zu Thema Kiten/Kitensurfen

    Welche Begriffe werden in Kombination mit

    kitesurfen

    Kiten

    landkiten

    Kiteurlaub

    gesucht?

    Erkennen von Suchdimensionen

    Ort

    Zeit

    Kitegre

    Einstiegsseiten schaffen!

  • Effizientes Analysieren mit Anfragesegmenten (GSC)

    Metriken aus der Google Search Console nach

    Anfragemuster aufteilen und betrachten.

    Herangehensweisen:

    Alle bekannten Muster ausschlieen was bleibt

    brig?

    Gibt es in den einzelnen Muster Subthemen?

    Kommen die Nutzer auf der passenden Seite

    raus? Produktdetailseite? Kategorieseiten?

    Nein? Fehlen vielleicht die passenden Elemente auf

    den Seitentypen?

    Ist eine Facette neu hinzugekommen?

    Lohnt sich vielleicht eine neue Kategorie? Produkte

    nach Eigenschaft xy?

    Gre Material Hersteller

    90x200

    90x200

    100x200

    180x200

    Holz

    Metall

    Leder

    Marke 1

    Marke 2

    Marke 3

    Anfragemuster nach Klicks und

    Impressionen betrachten

    Beispiel Betten

  • Prfung auf neue Suchmuster und Suchverhalten

    Nutzer an die passende Stelle des Angebots

    leiten

    Potentiale zu neuen Suchmuster erschlieen

    (passendere LP in der Regel bessere

    Rankings!)

    Warum?

    Header

    H1: Seitenthema

    H2 Subaspekt 1 Sprung-marken

    Marginal-

    spalte

    H2 Subaspekt 2

    H2 Subaspekt 3

    H2 Subaspekt4

    Gesamtstruktur

    Seitenstruktur

    Mittelstand Retailer Publisher Index-Riese

    Relevanz

    Turnus

  • Content

    Contentpflege-

    prozesse im

    SEO

  • Entwicklung einer News-

    SEO Strategie

    Aufbauend auf der

    thematischen Relevanz,

    die Google bereits

    zugewiesen hat

    Gezielte Optimierung auf

    News-Boxen im Rahmen

    der redaktionelle Arbeit

    News-Boxen besetzen

    Bestehende Rankings

    verlngern

    Content SEO: Lebenszyklus beachen!

    Evergreen-Inhalte

    identifizieren und gezielt

    ausbauen

    Content-Pflege in den

    Workflow integrieren

    Content-Ausbau zu

    Themenspecials

    Ausbau der

    Informationsarchitektur

    fr Evergreen-Content wie

    Ratgeber, Guides etc.

    News-SEO Evergreen-SEO

    Ratgeber Artikel 1 Artikel 2

    Ratgeber: Ca. 79

    % SEO-Traffic

    Artikel: Ca. 35

    % SEO-Traffic

  • Content altert

    0

    10

    20

    30

    40

    50

    60

    Beispiel Rankingentwicklung

  • Content Refresh: beralterung vermeiden

    Aktualitt fr den Nutzer gewhrleisten

    Schleichender Ranking und Trafficverlust

    Content Maintenance

    Warum?Suchanfrage / Landingpage

    Klicks Impressionen Ranking

    Mittelstand Retailer Publisher Index-Riese

    Relevanz

    Event und Turnus

  • Inhalte an das Suchverhalten anpassen

    Bei Initialerstellung Suchverhalten nicht ganz

    klar oder es ndert sich

    nderung Suchverhalten

    Subthemen erst eindeutig und sichtbar mit

    eigenen Daten

    Warum?

    Mittelstand Retailer Publisher Index-Riese

    Relevanz

    Event und Turnus

    Erhebung Nachfrage

    AdWords oder

    Keyword-Tools

  • https://giphy.com/gifs/black-and-white-jim-carrey-edited-vohOR29F78sGk?utm_source=media-link&utm_medium=landing&utm_campaign=Media Links&utm_term=http://m.facebook.com/

  • Inhalte strukturiert depublizieren!

    Sicht nicht verlieren! Soft 404 wegen unspezifischer

    Redirects

  • Effizientes lschen und depublizieren

    Inhalte werden nicht mehr bentigt und

    sollen mglichst schnell aus dem Index

    verschwinden

    Positive Signale mitnehmen

    Sackgassen vermeiden

    Freie Sicht behalten

    Warum?

    1. Relevanz Prfen

    a. Einstiege

    b. Links

    c. Seitenaufrufe

    2. Redirect vs. 410 Gone

    a. Fallentscheidung pro URL

    3. Einrichtung der Redirects

    4. Entfernen via 410

    5. Prfung ob noch interne Verlinkungen bestehen

    6. Erstellung einer 410-Sitemap

    7. Via GSC Einreichen

    8. Regelmige Fehler prfen und abhaken

    Mittelstand Retailer Publisher Index-Riese

    Relevanz

    Event und Turnus

  • Alerting und

    Monitoring-

    Prozesse im

    SEO

  • Warum Alerting und Monitoring?

    Being happy...