Unser Recap zur SEOkomm 2019

SEOkomm 2019 Recap: Das nehmen wir mit!

Am 22. November fand zum zehnten Mal die SEOkomm-Konferenz in Salzburg statt. Natürlich waren wir auch wieder mit dabei, um dieses Jahr nicht nur den 10. Geburtstag, sondern auch den Abschied des grandiosen Keynote-Speakers der letzten Jahre zu feiern. Marcus Tandler sorgte mit seinen 426 Slides für eine emotionale und sehr gelungene Eröffnung der Konferenz. Und natürlich hat auch die einzigartige Moderation von Tobias Fox nicht gefehlt.

Wir sagen DANKE für drei großartig besetzte Panels, inspirierende Vorträge und eine tolle Atmosphäre. Wir freuen uns auf nächstes Jahr! Im Folgenden fassen wir unsere wichtigsten Learnings und Impressionen der SEOkomm-Konferenz zusammen:

Keynote: Unspoken | Der Endgegner

Marcus Tandler, Ryte GmbH

Die Konferenz stand unter dem Motto: #aufsaugen, #mitnehmen, #umsetzen. Die Gastgeber Uschi und Oliver Hauser gaben anlässlich des 10-jährigen Jubiläums bekannt, dass die beiden Konferenzen OMX und SEOkomm zukünftig zu einer neuen Brand – den Online Experts Day – zusammengefasst werden.

Das Jubiläumsevent eröffnete Marcus Tandler mit seiner absolut inspirierenden Keynote. Ein #slidestorm ganz nach dem Motto „10 Jahre SEOkomm“: Ein Rückblick der letzten Jahre bis hin zum aktuellen BERT-Update.

Schon bei der Prämiere der SEOkomm hielt Marcus Tandler eine Präsentation, damals zum Thema „Advanced Linkbuilding for Affiliates“. Dieses Jahr hielt er einen Vortrag unter dem Motto: „Unspoken – der Endgegner“. Aus den Folgen des neuesten Updates für Ryte wurden erste Erkenntnisse abgeleitet. So zeigte sich beispielsweise, dass Clicks und Clickrate oft sehr entscheidend für ein Top-10 Ranking seien und mehr Links nicht zwangsläufig zu einem besseren Ergebnis führe. Beim User Intent sollte stets der Zeitpunkt der Suche als wesentlicher Aspekt berücksichtigt werden.

Anschließend wurde ein Überblick über die Recommendation Systeme von Google und deren Relevanz gegeben. Systeme wie Google Plus, Google Scholar oder YouTube basieren auf „queryless searches“ – einen wachsenden Trend der Suchanfragen.

Das nächste große Thema stellte „BERT“ (Bildirectional Encoder Representations from Transformers) dar – das größte Core Algorithm Update von Google der letzten 5 Jahre. BERT ist ein pre-training, auf einem neuronalen Netzwerk basierende Technologie, zur Verarbeitung natürlicher Sprache. Masked language modelling bildet in diesem Zusammenhang einen Prozess ab, bei dem eine KI dazu trainiert wird, selbstständig bestimmte verdeckte Wörter aus Texten zu finden. Die Google AI trainiert aktuell mit einem Vokabular von ungefähr 3,3 Millionen Wörtern. Squad und Glue (oder SuperGlue) stellen ebenfalls alternative Language Learning Systeme dar. Da sich ein Trend zur Conversational Search abzeichnet, passt auch Google sich diesem Frage-Antwort Schema an. Zwar ist BERT in Deutschland noch nicht aktiv, wird aber laut Tandler definitiv kommen.

Die Mission von Google lautet mit allen zur Verfügung stehenden Mittel hilfreich zu sein – unter anderem mit „helpful computing“: Google Pixel, Google Phone, Google Assistant, Google Smart Home Devices, etc. Die Vermutung liegt nahe, dass Google Assistant zukünftig der Mittelpunkt unseres Lebens sei, laut Marcus.

Marcus hat auch kurz das neue Feature bzgl. AMP-Seiten vorgestellt: signed exchanges. Signed Exchanges zeigt die eigene Domain in der Suche bei AMP-Seiten und nicht mehr die Adresse von Google.

Sein emotionaler Abschied und höchst interessanter Vortrag wurden mit Standing Ovation gewürdigt.

 

“Awesomeness Near Me”: How to win at Local SEO

Izzy Smith, e-Sixt GmbH (soon: Ryte GmbH)

Die aktuelle SEO Managerin von Sixt hat mit einer persönlichen Neuigkeit angefangen: Sie wird bald das Ryte-Team ergänzen. Herzlichen Glückwunsch, Izzy!

Zu Beginn hat sie erklärt, dass Voice Assistants hauptsächlich für local intent basierten Suchen verwendet werden. Aggregatoren (z.B. OTAs) können die organische Suche dominieren, aber sie können nicht das Local Pack dominieren. Somit gewinnt das Ranking im Local Pack immer mehr Wichtigkeit.

Wichtige Facts zu lokalen Suchergebnissen waren:

  • Lokale Einheiten werden direkt in dem Local Knowledge Graph dargestellt. Dies erfordert keine URL-Optimierung oder technisches SEO, Onpage-Werte können sich aber auf die lokalen Rankings auswirken.
  • Spam wird in den organischen SERPs algorithmisch gut rausgefiltert, wohingegen dieser in der lokalen Suche viel häufiger vorkommt (illegale Dienstleistungen, gefälschte Listings, Spam-Namen, Keyword Stuffing, etc.).
  • Die Nähe zum Suchenden kann einen Personalisierungsfaktor in den organischen SERPs haben, aber ein Rankingfaktor in der lokalen Suche sein.
  • Für Google Maps gibt es explizitere Möglichkeiten zur Personalisierung und Verfeinerung.
  • Lokale Rankings können direkt durch das Offline-Geschäftsverhalten beeinflusst werden (z.B. Kundenbesuche von geringer Qualität, negatives User Feedback).
  • Einen Überblick in die lokalen Rankingfaktoren
    • Popularität
      • Anzahl der Bewertungen
      • Durchschnittsbewertungen
      • Lokale Citations
      • Ladenbesuche
      • Qualitative Besuche
      • Lokale Links
    • Nähe
      • Entfernung zum Sucherstandort
      • Entfernung zur angegebenen Standortentität
    • Relevanz
      • NAP Regeln
      • Kategorien
      • Einzigartige Business Fotos
      • Unternehmensbeschreibung
      • Onpage Faktoren
    • Vor allem müssen die folgenden Faktoren berücksichtigt werden:
      • Verifiziertes Google My Business Profil
      • NAP Regeln
      • Bildinhalt
      • Einzigartige Geschäftsbeschreibung mit detaillierten Punkten
      • Relevante primäre und sekundäre Kategorien, spezifisch für das Unternehmen
      • UTM-parametrisierte Links, um lokale Besuche in Google Analytics oder Google Search Console zu verfolgen

Izzy hat auch intensiv über Reviews Management geredet. Unter anderem hilft Reviews Management bei:

  • CRO & UX Optimierung
  • Semantische Anreicherung & Query Targeting
  • Inspiration für Onpage-Verbesserungen

Zusammengefasst, gute Local SEO ist im Grunde: Bereicherung der Entitäten mit Unique Content, Reviews Management und Datenkontrolle über lokale Guides und Google.

 

“UX for SEOs: Wie du für Mensch und Maschine optimierst“

André Goldman, Büro für gute Websites

André Goldman von „Büro für gute Websites“, ging in seinem Vortrag auf User Experience für SEOs ein. Zum Einstieg stellte André die Frage, warum Google eigentlich das Thema UX so stark fördert. Die Antwort liegt auf der Hand. Google möchte dem Nutzer die bestmöglichen Ergebnisse liefern. Und daraus stellte sich gleich die Folge-Frage, welche Faktoren hinsichtlich UX sind für Google ein schlechtes Signal.  Als Erstes wären die Snippets in der Google-Suche. Ein Snippet, welches nicht geklickt wird, suggeriert dem Nutzer, dass die Inhalte auf der Zielseite nicht hilfreich sein werden. Dementsprechend muss man seine Snippets aktuell halten.

Der nächste Punkt ist die Ladezeit. Für mobile Nutzer und auch generell gilt: Wenn die Ladezeit zu lange dauert, werden die Nutzer abspringen und in der Folge wird Google das Ergebnis im Index runterstufen. Unter Umständen können Seiten deshalb komplett aus dem Index fliegen, bzw. werden nicht in einer Neuberechnung mit einbezogen, da höhere Ladezeiten auch für Google höhere Kosten bedeutet. Schließlich müssen die Rechner in den Daten Centern so mehr Energie verbrauchen.

  • Content – Der Bodensatz einer Website:
    • Ohne den richtigen Content fehlt die Ranking Grundlage
    • Schlechte User Signale durch die falschen Content Formate fallen auf Googles Leistung zurück
    • 100% Aktualität sicherstellen
    • Depublishing Workflow zur regelmäßigen Inhaltsreduktion erstellen
    • Content Audit zur Identifikation von fehlenden Elementen durchführen
    • Basis Elemente: Logo, Headlines, Einleitung, Einzigartiges Wertversprechen, Preis, CTAs, Trust Elemente, Testimonials
  • Onpage Optimierung – die Rankingfähigkeit
    • Fehlende oder nicht auf den Suchintent abgestimmte Überschriften können negativen Einfluss haben
    • Zwischenüberschriften
    • Fehlende Listenelemente für Featured Snippets
    • ALT-Attribute
    • Fehlende strukturierte Daten
    • GSC zur Optimierung einer Seite nutzen
      • Wie viele Impressions?
      • Wie hoch ist die CTR? Gibt es einen Klickanreiz?
      • Ranking zu welchem Keyword?
      • Wie wird dieses Keyword auf der Seite verwendet? Wird das Thema aufgegriffen?
      • Wie hoch ist die Bounce-Rate?
      • Fühlt sich der User angesprochen?
    • Crawlbarkeit der Website
      • Fehlende interne Links
      • Verwaiste URLs werden nur unter Umständen von Google aufgespürt (XML-Sitemaps oder robots.txt)
      • txt
      • Pagespeed
      • Interne Verlinkung pushen: Themen-Hubs entwickeln, HTML-Sitemaps nutzen, schlecht verlinkte Seiten aufspüren und intern verlinken

André Goldman ging ebenfalls auf Google’s HEART Framework für Messung der UX:

  • Happiness
  • Engagement
  • Adoption
  • Retention
  • Task Success

Am Ende hat er uns auch „drei TOP-Themen für nächste Woche im Büro“ gegeben:

  • Entwickle einen Priorisierungs-Plan entlang der User Journey und deinen Low-hanging-Fruits
  • Richte ein Monitoring für relevante Problembereiche auf deiner Website ein
  • Denke alle Funktionen in verschiedenen Kontexten zu Ende. Nur so findest du das volle Optimierungspotentiial für eine optimale UX

 

„Technical SEO Testing: Überraschungen & Insights aus dem Peak Ace Testlabor“

Bastian Grimm, Peak Ace AG

Bastian Grimms Vorträge sind immer wieder ein Vergnügen, auch wenn in Sachen Technik ein großes Basiswissen vorhanden sein sollte. Diesmal (zum neunten Mal als Speaker bei der SEOkomm) hat Bastian erklärt, was seine Agentur Peak Ace im letzten Jahr alles getestet hat. Dies haben sie wieder verstärkt, da seitens Google noch zu wenige Informationen für SEOs kommen, bzw. auch Desinformationen kommuniziert werden. Grundsätzlich gilt es beim Testen zu berücksichtigen, dass externe Einflüsse die Ergebnisse verfälschen können und die erhobenen Daten immer genau geprüft werden müssen.

Die folgenden 6 Tests waren besonders interessant:

  • Eines der größten Probleme in der SEO ist die Fehl-/Desinformation („Ich habe gehört, dass …“)
  • Indexierung: Peak Ace haben sämtliche „noindex“ Einbindungen getestet. Bei Verwendung mehrerer Methoden gleichzeitig wird nicht immer die von Google bevorzugte Anweisung verwendet. Doppelanweisungen und Tippfehler werden oft ignoriert
  • Sichtbarkeit von Content: In der Regel wird nicht sichtbarer Content auch nicht in den SERP-Snippets ausgespielt. Es sei denn, man bedient sich der Möglichkeiten von „overflow: hidden“.
  • iFrames: Es kann inzwischen passieren, dass Content, der per iFrame geladen wird, auch bei Google rankt. Will man dies verhindern, muss auf X-Frame-Options zurückgegriffen werden
  • Longform Content: Wer in der Google Search Console die Vorschau des Rendering nutzt, sollte daran denken, dass die Vorschau nur 15.000 Pixel rendert. Das heißt nicht, dass der Code nicht trotzdem richtig gerendert werden kann.
  • Content-Move: Wer mit den Selektoren „before:“ & „after:“ umzugehen weiß, kann für die Suchmaschine uninteressante Inhalte weiter unten im Quellcode platzieren.
  • Weiterleitungsketten sollte man immer noch stark vermeiden: In der Google Search Console werden nicht mehr als 5 Redirects angezeigt (aber JavaScript-Redirects werden in der Google Search Console mehr als 10 angezeigt)
  • Die Indexing API für Jobs funktioniert nur für Job-Seiten, die mit structured data ausgezeichnet sind

„Screaming Frog – KNIME: Daten gezielt crawlen und aufbereiten“

Sabine Langmann & Johannes Kunze, get:traction GmbH

Sabine Langmann und Johannes Kunze haben bei der SEOCampixx 2019 festgestellt, dass die von ihnen präsentierten Themen gut zusammen passen würden. So hatten sie die Idee auf der SEOkomm einen Vortrag zusammenzuhalten. Der Vortrag ging um Datensammlung mit Screaming Frog und Daten-Auswertung mit KNIME (Konstanz Information Miner) bzw. Google Data Studio. Möglich ist dabei beispielsweise die Preise eines Onlineshops herauszuziehen und laufend zu beobachten.

Die Ziele der Benutzung dieser drei Tools zusammen sind: Zeit einzusparen, bessere Ideen zu bekommen (kreativer zu werden) und uns zu zeigen, dass wir das auch können 😊. Für den Vortrag wurden drei Cases als Beispiele für die Untersuchung genommen: gourmondo.de, geschenke24.de, fahrrad.de. In dem Vortrag wurde der Ablauf von fahrrad.de im Detail gezeigt.

Genereller Ablauf:

  • Nutzerspezifisch crawlen: Es wurden alle Seitenteile identifiziert, die interessant für das Case waren und relevante Datenreihen produzieren könnten. Dazu gehören z.B. Produktpreise, Rabatte oder Kennzahlen zur Verfügbarkeit.
  • Datenaufbereitung: automatisierte Screaming Frog Custom Extractions 3x pro Tag
  • Ab zu KNIME/ Data Studio: Mithilfe von KNIME (Interaktive Datenanalyse) wurden die Daten bereinigt, zum Beispiel unnötige Zahlen, Daten oder Sonderzeichen entfernt.
  • „Die bereinigten Daten gingen nun von KNIME zu BigQuery (als umfassender Speicherort), und von dort direkt zu DataStudio oder zurück zu KNIME zur Analyse.“

Danach erklärte und zeigte uns Sabine wie man Custom Extractions mit Screaming Frog (xpaths benutzen) machen kann. Außerdem haben wir gelernt, wie wir automatisierte Crawls anlegen können:

  • Automatisiert –> Scheduling –> Task anlegen (4x am Tag crawlen)
  • Alternativ: Aufgabe erstellen (im Assistent)
  • Screaming Frog läuft dann automatisch

Folgend, hat Johannes uns erklärt, wie man Crawls aus Screaming Frog in KNIME einelsen kann, bearbeiten und dann in BigQuery laden. Die wichtigsten Learnings aus diesem HandsOn-Vortrag waren:

  • Screaming Frog kann mehr als nur Seo easy Exporte oder normale Crawls: xpath und regex verwenden
  • Man muss sich händischen Aufwand sparen. Automatisiere alles, was geht. KNIME ist ein hilfreiches Tool dafür
  • BigQuery & Crawl Exporte gehen gut zusammen. Man bekommt ganz neue Möglichkeiten

„BERTology – Das größte Google Update seit fünf Jahren kommt 2020 nach Europa. Was du jetzt wissen musst!“

Kai Spriestersbach, eology GmbH    

Der Vortrag von Kai Spriestersbach setzte sich mit dem neuesten Google Update „BERT“ auseinander. BERT kann Texte besser verstehen als ein Mensch. Wie BERT funktioniert und welche Auswirkungen BERT hat, wurde anschaulich gezeigt:

Wer ist BERT? 

Google versteht aktuell nur einzelne Wörter, setzt diese aber noch nicht in einen Sinnzusammenhang. Der Kontext ist bei einigen Suchanfragen allerdings entscheidend, um die Suchanfrage richtig zu verstehen.  

BERT wurde mit mehr als drei Milliarden Wörtern aus dem englischen Wikipedia und dem Book Corpus vortrainiert. Jetzt ist es möglich, dass Google den Sinn der Suchanfrage aus dem Kontext viel besser verstehen kann. Wie beispielsweise in dem folgenden Beispiel: 

Google versteht zukünftig also auch Homographie (Bank ungleich Bank)und Homophonie (Malen ungleich Mahlen) 

BERT hat unglaublich viele Daten in sich. Hierbei immer wichtig zu beachten, dass so auch algorithmische Vorurteile zum Vorschein kommen.  

Aktuell kann man diese algorithmischen Vorurteile noch für sein Unternehmen nutzen, indem man beispielsweise mit FAQ-Page (schema.org) Fragen schreibt wie „Welches ist das beste XY?“ und dann sein eigenes Unternehmen nennt 

BERT wird für Lieferung von Featured Snippets verwendet (Google Assistent). Dafür müssen wir, als SEOs, ebenfalls die gleichen Technologien, die BERT verwendet, kennenlernen:

  • Co-Occurence Analyse im Termlabs
  • Semager: vorherige & folgende Wörter
  • Algorithmische Vorurteile nutzen
  • Google Guidelines lesen
  • FAQ-Page nach schema.org aufbauen und auszeichnen
  • Query Deduplication: Quora
  • Zusatz: Textgenerierung – open AI
    • Grover: automatisierte Texterstellungen

Die wichtigsten Learnings sind: 

  • BERT braucht keine Panik zu machen – es gibt keine direkten „Strafen“ wie beispielsweise Rankingverluste. BERT möchte nur Suchanfragen besser verstehen und dementsprechend bessere Antworten liefern. 
  • Kai vermutet, dass wir BERT bald bei mehr als 10% der Suchen in Action sehen. „Google beantwortet bald sehr viele Fragen direkt bzw. blendet Featured Snippets ein!“ – Kai Spriestersbach
  • The next big thing: Glue – general language understanding evaluation
  • “Google BERT hilft besser zu verstehen, was die Wörter in einem Satz bedeuten – mit allen Nuancen des Kontextes.“ – Kai Spriesterbach, eology GmbH

 SEO mit BERT 

  • Keine Chancen ohne Strategie 
  • User Intent kennen und befriedigen 
  • Echte Erkenntnisse & Mehrwert bieten 
  • Strukturieren für FeaturedSnippets 
  • FAQ-Page-Schema integrieren 

 Wann kommt BERT nach Deutschland? 

Laut Kai sieht es in Deutschland so aus, dass wir noch googlen. Wir sprechen nicht mit der Suchmaschine, noch nicht. 

Aktuell ist noch nicht bekannt, wann BERT für die Google-Suche nach Deutschland kommt. Trotzdem sollte natürlich schon an den oben genannten Punkten gearbeitet werden. Zumal Featured Snippets bereits in allen Ländern, in denen sie im Einsatz sind, von BERT beeinflusst werden. 

Mehr über das Google Update erfahrt ihr in unserem Blogbeitrag: https://www.xpose360.de/google-update-bert/

„Interne Verlinkung als Rankingfaktor am Beispiel serienjunkies.de“

Jens Altmann, jens-altmann.de

Jens Altmann beschreibt drei Säulen als Basis der Suchmaschinenoptimierung: Externe Faktoren, interne Faktoren und User Signals. In seinem Vortrag konzentrierte er sich auf die internen Faktoren und präsentierte einen Case von Serienjunkies, wie Linkpotenziale identifiziert und genutzt wurden.

Grobes Vorgehen zur Identifikation von Linkpotenzialen:

  • Crawl der Dokumente
  • Kontext identifizieren
  • Domainweites Dictionary erstellen (nicht TF*IDF, sondern rein intern!)
  • Dokumente und Architektur bewerten
  • Beurteilung der Linkquellen

Im Testlauf erhielt jedes Dokument zunächst einen Link von der Startseite (= Basis-Setup). Im Anschluss daran wurden auch zwischen den Unterseiten interne Querverlinkungen gesetzt. Hierfür wurden die Linkquellen in der Google Search Console vorab aktualisiert, sprich: die Linkgeber sind neu indexiert worden.

Serienjunkie:

  • Serienjunkies.de –> Knapp 200.000 Dokumente, 260.000.000 interne Links, 72.000.000 Linkvorschläge
  • Serien-Hub mit über 72 Mio. Links sehr stark reduziert: (Bsp: Game of Thrones) Extraktion von Thin Content –> übrig geblieben 5964 Links /415 Linkziele
    • Basis: relevante Seiten = Minimum 2.000 Impressions in Testzeitraum
    • Datenvalidierung als wesentlicher und grundlegender Bestandteil! (relative Werte)
  • Anschließend Verlinkung zwischen Bereichen (z.B. Marvel Serien, Marcel Charaktere)
  • 2 Testsets –> Serienhubs mit Link hinzugefügt, Serienhub unverändert
    • Absolute Änderung mit Link eingefügt: + 266 Positionen gewonnen, Traffic gewonnen
    • Absolute Änderung ohne: -297 Positionen verloren, Traffic verloren

Fazit: Es funktioniert! Seiten, für die interne Links gesetzt wurden, haben in den absoluten Werten überzeugt (Positionsveränderungen).

 

“Case Studies & Learnings aus der t-online.de-Redaktion”

Theresa Futh, Ströer News Publishing Group

Theresa Futh ließ in die internen Abläufe der Online-Redaktion einblicken und erklärte, wie intern SEO und Redaktionsarbeit in Einklang gebracht werden.

Grundlegende Analysen:

  • TF*IDF-Analyse innerhalb der eigenen Website anstellen
  • Indentifizieren, welcher Content bereits gut funktioniert:
    • Wo sind meine Stärken?
    • Wo haben wir Evergreen-Potenzial?
    • Wo können wir schnell und einfach ansetzen?
  • Topic-Extraktion durch:
    • Term-Analyse (TF*IDF)
    • Entitäten
    • KPIs: (Klicks, Anzahl der Einzelartikel zu einem Thema, Traffic, etc.)

Key-Learning dabei:

Die Stärken und Schwächen einer Seite sollten durch eine Topic-Extraktion identifiziert werden. Dabei gilt es allerdings immer nur die wichtigsten Daten und KPIs heranzuziehen und nicht möglichst viele! Diese sollen dann zur Priorisierung der Themen genutzt werden. Außerdem wurde empfohlen zunächst mit den eigenen Daten zu arbeiten bevor externe herangezogen werden.

Das Vorgehen für kurzfristige Erfolge (z.B. im Newsbereich):

  • Gemeinsame Themen mit der Redaktion finden (keine Vorgaben aus SEO-Sicht!)
  • Aus Themenvorgaben der Redakteure die Top-Performer identifizieren
  • Tagesplan erstellen (z.B. in Trello mit To Dos)
  • Kurzrecherchen anstellen (GSC, KW Planner, etc.)
  • Situative Entscheidungen treffen
  • Fokus und Hartnäckigkeit beibehalten

Das Vorgehen für mittel- und langfristige Erfolge (z.B. im Ratgeberbereich):

  • Prio-Liste aus Themenrecherche erstellen
    • Low-hanging fruits identifizieren
    • Saisonale Themen definieren
    • Suchvolumenstarke Themen identifizieren, zu denen es bereits viele Inhalte gibt
    • Suchvolumenstarke Themen identifizieren, zu denen es aktuell wenige Inhalte gibt
  • Kriterien wie „Saisonal“, „Vermarktung“ oder „SEO“ zur Einordnung der Themen heranziehen (worauf zielen die Inhalte ab?)
  • Themenpläne mit Excel erstellen (Tipp: SEO Tools für Excel nutzen)

Theresa Futh gab abschließend einen grundlegenden Tipp für die Zusammenarbeit von SEO und Redaktion mit: Brieft eure Redakteure nicht mit reinen Daten- und Keyword-Listen. Lasst sie am besten ihr Briefing selbst erstellen. Als Basis hierfür sollten allerdings vorab die Top- und Flop-Themen analysiert und an die Redakteure kommuniziert werden. Das SEO-Reporting sollte also ein wesentlicher Bestandteil eines Briefings werden.

Wir sollten uns grundsätzlich darüber bewusst sein, dass es Menschen schwer fällt langfristig an einem Thema zu arbeiten und dieses stets zu verbessern. Anstatt mit Misserfolgen umzugehen fangen wir häufig lieber etwas Neues an. Bleibt hartnäckig und ehrgeizig!

 

„13 solide Antworten auf politische SEO-Fragen vom C-Level“

Niels Dahnke, suxeedo GmbH

Niels Dahnke bot in seinem Vortrag hilfreiche Antworten auf typische Fragen, die wir (zumindest zum Teil) doch alle irgendwie kennen. Ein gewinnbringender Einblick in die Welt des C-Levels:

Was machen Sie eigentlich?

Naja, was machen wir SEOs? An erster Stelle doch eigentlich Politik, oder? Wir überzeugen unsere Kunden, dass das was wir machen auch etwas bringt. Die größte Schwierigkeit dabei ist das fehlende Verständnis und fachliche Knowhow unseres Gegenübers.

Tipp: Keine fachlichen Details nennen oder zu sehr in die Tiefe gehen.

Warum sollte ich in SEO investieren?

Hier ist es wichtig, die Verkettung einzelner Zwischenziele zu vermitteln um zu verargumentieren, dass SEO ein langfristiger Kanal ist:

Sichtbarkeit  Traffic ➔ Conversion ➔ Umsatz ➔ Gewinn

Grundsätzlich gilt: Ohne relevante Suchergebnisse, keine Wertschöpfung

Des Weiteren gilt: Ohne Besucher und ohne ausreichende Verweildauer oder Interaktion ist nur eine geringe Wertschöpfung zu erwarten

Und darum braucht ihr SEO!

Was kostet uns das?

SEO ist ein Kundenmagnet und sollte dem C-Level gegenüber auch als solcher vermittelt werden.

Kleiner Tipp: Wird im Gespräch mit dem C-Level von „Ressourcen“ gesprochen, macht euch bewusst, dass es hier nicht nur um Geld, sondern vor allem auch um Personal geht.

Wie messen Sie eigentlich den Erfolg?

Und wieder: das C-Level denkt anders. Bei dieser Frage stehen Umsatzzahlen im Fokus und keine SEO-Kennzahlen.

Tipp: Brecht für den Kunden die Umsatzzahlen nach Akquisekanälen auf und zeigt, wieviel Budget aktuell wo rein fließt und wieviel wo wieder raus kommt. Falls möglich macht ein Vergleich mit dem Wettbewerb das Ganze noch transparenter und nachvollziehbarer.

Die Zielsetzung und die angestrebten Erfolge sollten stets mit den Zielen des Stakeholders in Einklang gebracht werden.

Wie verbessert sich das Ranking, wenn Sie den Title ändern?

Sagt nicht und niemals: „Das kann man nicht sagen“. Denn das C-Level erwartet schlichtweg Zahlen. Legt euch stattdessen Studien und Prognosen bereit, um zumindest eine grobe Hausnummer nennen zu können.

Können Sie konkrete Ergebnisse Ihrer bisherigen Arbeit vorweisen?

Case Studies eignen sich für solche Fragen hervorragend. Ein paar passende Studien sollte man sich also immer bereitlegen. Außerdem sollte für alles Weitere das Reporting stets auf die Zielgruppe und die Stakeholder ausgerichtet sein.

Was macht unsere Konkurrenz?

Stichwort: Market-Share (bzw. Marktanteil)

Können wir ähnliche Ergebnisse bei weniger Kosten erreichen?

Denkt immer daran: euch sitzt ein Entscheider gegenüber. Und Entscheider wollen Entscheidungen treffen. Deshalb solltet ihr Entscheidungsvorlagen sachlich ausarbeiten und euer Gegenüber entscheiden lassen.

Tipp: Zeigt auf, in welchen Größenordnungen sonst so in der Branche häufig Geld ausgegeben wird und inwiefern SEO als effektiverer Kanal dient.

Wie wird SEO unsere Markenpräsenz beeinflussen?

SEO bringt qualifizierte Leads.

…und wieviele Leads werden wir generieren?

Hier gilt immer: Qualität vor Quantität. Macht das eurem Gegenüber unbedingt bewusst. Um dennoch die gewünschten Zahlen mit ins Gespräch zu bringen, können Statistiken herangezogen werden. So zum Beispiel „Conversionraten sind über die organische Suche 10 mal höher!“

Königsdisziplin: Der Neffe meines Nachbarn meinte, dass… Wie kann das sein?

Ein SEO mag für viele ein Nerd sein und sollte im Gespräch mit dem C-Level nicht zu sehr ins Detail gehen. Und trotzdem muss ein SEO Aufklärungsarbeit leisten – aber im richtigen Maß. Bleibt daher Basic, geht nicht zu sehr ins Detail und erläutert vor allem wichtige Zusammenhänge.

 

„Der gefährlichste Relaunch der Welt & die Learnings daraus“

Dominik Lay, CTS EVENTIM AG & Co.KGaA Johan von Hülsen, Wingmen Online Marketing

Dominik und Johan haben uns einen detaillierten Überblick in dem Relaunch von eventim gegeben, sowie die Fehler, die sie gemacht haben und die besten Learnings daraus. Es war ein komplizierter Relaunch: in 21 Ländern weltweit, die Domains verkaufte 54.300.000 Tickets pro Jahr, 3000 Mitarbeiter und die Umsetzungszeit betrag 5 Jahre für alle 26 Domains.

Ausgehende Situation:

  • Unendlich viele URLs per Domain
  • Relaunch Frontend. Backend unantastbar!
  • Warum relaunchen?
    • Sichtbarkeit ging ständig nach oben. In DE ist eventim Marktführer aber in anderen Ländern gar nicht
    • 98% der URLs waren „noindex“, 85% Städte Seiten, unendliche Duplikate
    • „10 Jahre technische Schulden“:
      • Mehrere URL-Generatoren
      • Zu viele URL Varianten
      • Mobile gabs nur manchmal
      • Kein https-Protokoll
    • Vorbereitung des Relaunches
      • Weniger URLs = schneller verarbeiteter Relaunch: von 300 Mil. URLs auf 10 Mil. URLs gekommen
        • Parameter Konfiguration in der Google Search Console
        • 100 Mil. URLs weniger geworden
      • https – 95% weniger URLs in eine Woche
        • nach https Umstellung ging die Sichtbarkeit nach oben trotz dieser riesen URL-Reduzierung
      • Umsetzung:
        • 1 Artist – 10 Seiten. Neue Umsetzung: 1 Artist – 1 URL
        • Best Practice URL Struktur:
          • DO:
            • Nutzerfreundlich
            • So lange wie nötig
            • Parameter vermeiden
            • Verständlich
            • Strukturiert
            • Weiterleitungen
          • DON’T:
            • URLs UND Struktur der Seite ändern
            • Mehrere Zeilen pro Inhalt
            • Nur Parameter
            • Temporäre Inhalte (Jahreszahlen)
          • Wichtigste Key Learnings und Ergebnisse
            • Es wurden für fast jede Situation Notfallpläne erstellt
            • Detaillierte Dokumentation
            • Erwartungsmanagement ist extrem wichtig
            • Erfolgskontrolle: testen testen testen
            • Standard – für jeden Relaunch: Redirects, Logfiles, Testumgebung, Conversion-Test, Sitemaps & Ladezeiten
            • „Einen guten Relaunch sieht man nicht im Traffic“
            • SEO ist Teamwork: Es kommt nicht auf die Anzahl an SEOs an. Wichtig ist, dass alle Stakeholder mitziehen.
            • Planen & Testen: Geplantes und strukturiertes Vorgehen hilft (teure) Fehler zu vermeiden
            • Fehler & Fallen: Auch bei reproduzierbaren Prozessen ist es wichtig alles atribisch zu testen
            • Kompromisse: Jede Verbesserung ist besser als eine Anforderung gar nicht umgesetzt zu bekommen.

 

„Wie du die GSC für deinen SEO-Erfolg nutzt“

Stephan Czysch, Dept

Stephan Czysch begann seinen Vortrag mit den Ereignissen aus der Google Search Console, die dieses Jahr statt gefunden haben:

  • Erste Reports gingen offline aus der alten GSC
  • Traffic Reporting auf canonical URLs (im Februar 19)
  • Canonical Reporting gilt nicht für Maps & Jobs
  • Willkommen Domain Properties (Ende Februar)
  • Google Discover in der GSC
  • Neues structured data Reporting
  • Mobile first indexing als Standard im Mai 2019
  • Ciao präferierte Domain
    • Evergreen Googlebot in der GSC (im August 2019) – The evergreen chromium renderer
  • Aktuelle Suchanfrage-Daten (im September 2019)
  • Auf Wiedersehen alte Search Console (im September 2019)
  • Structured data Reports für Videos
  • Site kit plugin für WordPress
  • Willkommen Pagespeed Report
  • Filter für product markup in der Suchanalyse

Als nächstes ging Stephan das Thema „Suchanfragen“ an, von Basic Infos bis zu Fortgeschrittenen. Die wichtigsten Take Aways für uns waren:

  • AMP-Seiten im Caroussel ranken alle auf Position 2 in den SERPs
  • Selbst bei Ranking in den Top 10: Impressionen ungleich Suchvolumen
  • Der Standard-Export ist nicht ideal
    • Nur 1000 Zeilen
    • Er zieht nur die Datentabelle, die angezeigt wird
  • Immer vor Augen haben, was du dir gerade anschaust – Die Daten immer auf dein Hauptzielland einschränken – Nach Wunsch weitere Segmentierungen durchführen (Device, …)
  • Keywords mit gutem Ranking und niederiger CTR in der GSC filtern und analysieren

Am Ende des Vortrags empfiehl uns Stephan die Top drei Learnings:

  • Segmentiere die Suchanalyse Daten (Brand vs Non-Brand, Informational vs. Transactional)
  • Arbeite mit der Suchanalyse-API (z.B. über Search Analytics for Sheets)
  • Nutzen die GSC zum Website-Monitoring (Indexabdeckung, URL-Überprüfung, strukturierte Daten)

 

Pimp my CTR – So erhöhst du die Kickraten von Titles und Descriptions

Julian Dziki, Seokratie GmbH

    Der Vortrag behandelte einerseits Basics über Meta Daten und verschiedene Tipps und Tricks wie man mit einfachen Mitteln und wenig Zeitaufwand die CTR erhöhen kann.

    • CTR-Berechnung: Achtung bei CTR-Daten aus der Google Search Console: Bei fünf Impressions kann das auch nur ein angezeigtes SERP-Ergebnis mit Navigation sein
    • CTR erhöhen -> mehr Traffic + bessere Rankings
    • Google wertet eine hohe Klickrate als Symbol für ein nützliches Ergebnis
    • Dzikis Tipps für die Erhöhung der CTR -> perfekter Title
      • Keyword-Verwendung
      • Kurz + knackig
      • Fragen einbauen
      • Zahlen einbauen
      • Rabatte einbauen
      • USP kommunizieren
      • Call-to-action (Vorsicht, kann auch schief gehen)
      • Sonderzeichen
    • Spioniere deine Konkurrenz aus
      • Suchergebnisse screenshotten und mal alle Keywords rausnehmen & schauen was bei allen überbleibt
      • Nutzerfokus beachten -> Suchanfrage -> Keyword inurl:forum
    • Google Ads schauen -> Google Ads Hilfe -> Berechnung der voraussichtlichen CTR
    • Bisherige Klickraten schauen und Wörter gezielt einbauen (Achtung Klicks sind „noisy“ -> kein verlässliches Rankingsignal, aber gut zum Testen von neuen Algorithmen (Samples))
    • Quick Tipp -> Fragen & Antworten in SERPs einbauen (auf allen Seiten außer Startseite möglich)
      1. Fragen + Antworten auf der Seite einbauen
      2. JSON-LD-Konverter
      3. Quellcode auf die Seite stellen
      4. In der Google Search Console -> FAQ eindeutige Elemente -> Indexierung beantragen

     

    Weitere lesenswerte Recaps zur SEOkomm 2019:

    https://www.seo-kueche.de/blog/seokomm-2019-recap/

    https://www.netprofit.de/blog/seokomm-2019-recap.html

    https://www.sblum.de/seokomm

    mario-schwertfeger.com/seokomm-recap-2019/

    https://www.seobility.net/de/blog/omx-seokomm-recap/

    Unsere Fans