SEOkomm 2016 Recap: Learnings & Impressionen

Es ist wieder soweit! Die SEOkomm in Salzburg geht in die nächste Runde und bietet wieder jede Menge Stoff für SEOs und Online-Marketeers. Unser SEO-Team lässt sich diese Konferenz natürlich nicht entgehen. Oana Moldovan, Daniel Braun, Johannes Wiesner, Ralph Männchen, Alex Geißenberger und Fabian Nesensohn sind vor Ort und berichten über spannende Vorträge und neue Insights.

Update: Den neuen Recap zur SEOkomm 2017 findet ihr hier: SEOkomm Recap 2017

 

Keynote: SEOs sind wo oben ist – Marcus Tandler

img-20161118-wa0011

Marcus Tandler hat auch in diesem Jahr wieder die Ehre, die Keynote halten zu dürfen. Der gewohnte „Folien-Storm“ kann sich wieder sehen lassen. Ca. 414 Folien in 45 Minuten.

Marcus liefert mit dem Thema „SEOs sind da wo oben ist“ wieder neue Impulse und Blickwinkel. Was auf SEO die nächsten Jahre zukommt, zusammengefasst:

  • Gute Links generieren Traffic
  • 228.000.000 Suchanfragen werden pro Stunde ausgelöst
  • Google wird in Zukunft noch mehr Daten aggregieren (z.B. über Chrome, Analytics etc.)
  • Chrome ist mittlerweile Marktführer bei Browsern
  • Ca. 70% der Suchanfragen kommen von Bots
  • Google testen immer wieder Websites, in dem sie diese in TOP10 befördern und User Behaviour Daten auswerten
  • Snippets sind wichtig!
  • Konzentriert euch auf Ladezeiten, Crawling und Content
  • AMP ist das Thema bei Google und stark forciert
  • Aktuell sind ca. 150.000.000 AMP Seiten im Index
  • 85% der Suchergebnisse sind mobile-friendly
  • PWA wird wichtiger und sollte jeder auf dem Schirm haben
  • Firebase wird die Plattform im mobilen Bereich

Mach deine Webseite endlich sauber – Dominik Wojcik

Wie ist die Crawling Architektur einer Webseite aufgebaut? Das ist eine der zentralen Fragen, die Dominik in seinem Vortrag beantwortet.

Wichtige Learnings sind u.a.:

  • Google crawlt die Seiten nach Gewichtungen
  • Wichtige Seiten werden öfters gecrawlt, unwichtigere Seiten weniger oft
  • Es sollten nur wichtige URLs gecrawlt werden

Crawling
Man soll Analysen fahren welche Seiten evtl zu oft gecrawlt werden. (SSPT oder Logfiles)

Ansonsten einzelne URLs oder Bereiche sollen über Interne Verlinkung gepusht werden.
Dazu sollte regelmäßig Seiten kontrolliert, welche Seiten schlechte Nutzersignale haben. Diese werden entweder optimiert oder deindexiert.

User centered Content – Martin Höllinger

User centered Content ist das Thema von Martin Höllinger. Grundsätzlich geht es um die Content-Erstellung nach dem User Intent.

Folgende Dinge sind wichtig:

  • Content wenn möglich ausdünnen
  • Schlechter Content soll entfernt werden.
  • Content soll zu einem Thema auf mehrere Seiten unterteilt werden, wenn man verschiedene Unterthemen hat
  • Inhalte sollten gelöscht werden, wenn diese für den User uninteressant sind
  • Liefere die richtigen Inhalte auf die jeweiligen Suchanfragen

Scrapy und Elasticsearch bei der Arbeit – Jens Bonerz

20161118_102712_resized

Jens Bonerz gibt Einblicke in die tägliche Arbeit mit Scrapy und Elasticsearch. In seinem Vortrag (Track 3) zeigt er, wie Daten von Webmastern übersichtlich dargestellt werden können. Darunter werden Daten, wie XongProfile, SI-Werte der Domain, Backlink-Profil der Domain eingespielt und visuell dargestellt.

Die wichtigsten Learnings aus dem Vortrag:

  • Mit Kibana (teil des Elasticstacks) können Daten visualisiert werden
  • Daten werden in remetrics BI aufgearbeitet
  • Auswertungen sind mit verschiedenen Filter möglich (z.B. nach User mit XingProfil oder nach Sichtbarkeit der Domain

Making sites uber fast – Fili Wiese

20161118_112547_resized

Fili Wiese (ehemals im Google Qualtiy Team) von searchbrothers.com gibt detaillierte Tipps, wie die Ladezeit einer Website optimiert werden kann.

Warum die Ladezeit wichtig ist, hat mehrere Gründe:

  • Profit
  • Reputation
  • Rankingfaktor
  • Indexing Speed

Zudem erklärt Fili Wiese, dass manche URLs öfters und manche weniger oft gecrawlt werden und weist auf die Nutzung des Pagespeed Insights Tool hin. Es sollte jedoch beachtet werden, dass Pagespeed Insights einen Überblick geben kann aber detaillierter analysiert werden muss.

Auf folgende Punkte sollte des Weiteren der Fokus liegen:

  • Critical Rendering Path
  • Page Load (Größe der Dokumente, Anzahl der Requests). Vor allem in Hinblick auf Länder, wo die Bandbreite geringer ist,
  • Optimiere dein CSS
  • Opimiere JS (Minify, asynchrones Laden, Reduzierung der JS librarie
  • Optimiere deine Bilder (z.B. nutze das richtige Format)

Mit den Google Developer Tools in Chrome lässt sich die Web Performance zusätzlich analysieren. Dazu sollten unterschiedliche Resource Hints (prerendering, preconnect etc.) eingesetzt werden. Die Empfehlung ist die Ressourcen im HTML Header zu verwenden.

Das Backend ist wichtig!

Das Backend spielt bei der Ladezeit eine wichtige Rolle. Vor allem folgende Themen sollten beachetet werden:

  • Server Response
  • Profiling (memcache einsetzen)
  • Datenbank-Anfragen sollten reduziert und gecacht werden
  • Server Ressourcen: Starke Server sind Pflicht
  • Generell Caching einsetzen, z.B. gzip

Bei HTTPs muss auf eine korrekte Einbindung des SSL Zertifikats geachtete werden. Im Idealfall wird die vollständige Domain auf HTTPs umgestellt.

HSTS

Durch Weiterleitungen, die durch Direktaufrufen entstehen, kann dem Browser das korrekte Protokoll mitgeteilt werden. Somit wird die Domain direkt im HTTPs Protokoll aufgerufen und somit Ladezeit eingespart.

HTTP/2

Nutze HTTP/2, um die Ladezeit drastisch zu erhöhen. Durch HTTP/2 wird die Limitierung der Requests umgangen und bei Anfrage werden alle notwendigen Dateien an den Client übermittelt.

Die Content Marketing Lüge – Mirko Lange

Mirko Lange nimmt sich das Thema “Die Content Marketing Lüge” an und beschreibt wie sich Content Marketing entwickelt. Generell gibt er Einblick in die “Content Lüge” und wie sich Content Marketing aus unterschiedlichen Perspektiven darstellt. Je nach Funktion im Unternehmen (PR, Publizist, SEO etc.) wird Content Marketing anders intepretiert.

20161118_120638_resized

Nach Mirkos Erfahrungen gibt es oft folgende Problematiken in Unternehmen:

  • Kein Verständnis
  • Keine Strategie
  • Keine Synergien
  • Kein Plan
  • Keine Transparenz

Dazu stellt er dar, dass viele Organisationen in Kanälen bzw. in Kategorien denken und unterschiedliche Ziele haben. Z.B. hat eine Sales-Abteilung andere Interessen wie die SEO & SEM-Abteilung.

Alle Inhalte sollten daher gemeinsam defniert und strategisch ausgerichtet und operativ koordiniert werden.

Content Marketing wird demnach generell wie folgt unterteilt:

  • Instrumentelles Content Marketing
  • Strategisches Content Marketing

Durch das FISH Modell werden Kanäle und Formate generell untergliedert.

Welche Fomate und Kanäle soll ich nutzen?

  • Follow-Content, z.B. Blogs
  • Inbound-Content, z.B. Whitepaper
  • Search-Content, z.B. News
  • Highligh-Content, z.B. Kampagnen

Google Search Console Advanced – Sebastian Erlhofer

seokomm - google search console advanced

Sebastian Erlhofer von der mindshape GmbH hat sich tiefer mit der Google Search Console auseinandergesetzt und vermittelt interessante Tipps.

Es folgen die Learnings:

  • Die Search Console ist eine sehr wertvolle Datenquelle – es handelt sich um original Google Daten!
  • Mehrere Properties nutzen, um Datenlimits zu umgehen (URL Pfade und konkrete URLs sind ebenso als Properties definierbar)
  • Nutzt den robots.txt Tester
  • Hreflang-Check der Search Console ist aussagekräftiger also externe Tools
  • Die „URLs entfernen“ Funktion blendet die URLs ca. 90 Tage aus. Deswegen muss zusätzlich das noindex-Tag gesetzt werden (keine robots.txt Sperrung!).
  • Disavow greift nur, wenn die URLs gecrawlt werden!
  • Tipps zum Fast-Disavow:
    • URLs via Datei bei Google einreichen
    • „Anpingen” via Tools (z.B. pingomatic.com)
    • Link-Map über eine dritte Domain einrichten: auf einer externen Domain eine Seite mit Links zu den „disavowten“ Seiten anlegen und crawlen lassen („Abruf wie durch Google“ + „Indexierung beantragen“ + „Diese URL und ihre direkten Links crawlen“).
  • Nutze Logfile Analysen, um zu sehen welche URLs gecrawlt wurden (z.B. über den Screaming Frog)
  • Über eine detailliertere Sitemap kann man nicht indexierte URLs finden (eine URL pro Sitemap ist möglich)
  • Nutze die Search Console um Mehrfachrankings und Schwellen-Keywords zu finden
  • Über die API kann man mehr als die limitierten 1000 Datensätze einsehen
  • Interessante Tools: Google Search Console API Explorer, Search Analytics für Sheets, SEO Tools for Excel

SEO Boot Camp – Prof. Dr. Mario Fischer & Prof. Dr. Tobias Aubele

seo_boot_camp

Mario Fischer und Tobias Aubele zeigen SEO Basics für Einsteiger. Mit den SEO Tools für Excel können alle Elemente der Website ausgelesen werden. Mario zeigt wie man mit Excel diese Daten SEO relevant auswertet.

Wichtige Learnings:

  • Search Console Zahlen können falsch interpretiert werden
  • Excel Tricks
  • Vieles kann mit dem Screaming Frog gelöst werden
  • Optimierung der Snippets erwartete Klickrate mit tatsächlicher vergleichen -> Wo ist ein optimierungsbedürftiges Snippet vorhanden?

Fahrplan SEO-Relaunch – Fabienne Colling

seo-relaunch

Fabienne Colling erläutert was bei einem Relaunch einer Website (klein- bis mittelgroß) beachtet werden muss. Sie geht von der Vorbereitung bis zur Umsetzung auf die wichtigsten Punkte ein.

Learnings sind:

  • Relaunch kann gefährlich sein, deswegen sollte dieser nur durchgeführt werden, wenn es auch wirklich nötig sein
  • Das Riskio eines Relaunches muss begründet werden
  • Vorbereitung des Relaunches
    • IST-Analyse von unterschiedlichen Abteilungen (Stärken, Schwächen, Chancen, Gefahren)
    • IST-Analyse ist nötig um den Erfolg messen zu können
  • Content Audit (URLs müssen analysiert werden, welche URLs convertieren, welche nicht)
    • unnötige Inhalte müssen gelöscht werden (Crawl- und Index-Budget)
  • Navigationskonzept muss vorbereitet wedren, um einen Überblick zu erhalten
  • SEO-Grundlagen bei einem Relaunch
    • Seitentemplate / Arbeitsgrundlage schaffen (HMTL Elemente, wie Überschriften müssen SEO-technisch anpassbar sein)
    • Weiterleitungen definieren (keine massiven Weiterleitungen auf die Startseite, Redirect-Ketten vermeiden)
    • Duplicate Content umgehen (mit und ohne www, http/https)
  • Umgang mit Dokumenten (Crawlbarkeit, Indexierungslogik, interne Verlinkung)

In den richtigen Ländern ranken – Kerstin Reichert

seokomm internationale ausrichtung

Kerstin Reichert gibt uns wertvolle Einblicke in die richtige Auszeichnung der internationalen Sprachversionen.

Learnings:

  • Mach dir vor dem Aufsetzen einer internationalen Seite Gedanken zur Struktur – eine Domain pro Land (meinedomain.de)? Subdomain (de.meinedomain)? Unterverzeichnisse (meinedomain.com/de/)? Parameter (meinedomain.com?loc=de) sind nicht zu empfehlen!
  • Die genutzten Suchmaschinen können sich je nach Land unterscheiden (netmarketshare.com)
  • Signale für Google:
    • Inhalte der Seiten – Wie drückt man sich lokal aus?
    • ccTLD (country code top-level domain) – z.B. meinedomain.de
    • gTLD (generic top-level domain) – z.B. de.meinedomain.com – weise die internationale Ausrichtung der jeweiligen Subdomain in der Search Console aus
    • Adresse + Telefonnummer
    • Google My Business
    • Währung
    • Externe Verlinkung
    • Hreflang-Attribut (unterstützt von Google und Yandex aber nicht von Bing!)
  • Statische Struktur ist weniger fehleranfällig als ein dynamisches Laden der fremdsprachigen Inhalte
  • Ein automatisches Weiterleiten (z.B. je nach Browser-Sprache) zu einer Sprachversion ist nicht zu empfehlen.
  • Biete einen Sprachschalter an
  • Hreflang hilft den Suchmaschinen beim Ausspielen der jeweils richtigen Sprachversion
  • Hreflang ist kein Rankingfaktor
  • Mögliche Angaben: Sprache / Sprache + Land (ISO-Code beachten)
  • x-default für alle Anfragen einrichten, die nicht zuordenbar sind.
  • Es ist auf eine reziproke Verlinkung zu achten + Selbstverweis der URL!
  • Verweise immer auf die nicht kanonischen URL-Varianten
  • Einbindungsorte: html-head, http-header (PDFs!), xml-Sitemap
  • Empfehlung: eine Sitemap pro Land
  • Bei mobilen Domain-Varianten ist der gegenseitige Verweise per Canonical und „alternate“ aktuell ausreichend
  • Bei AMP muss aktuell ebenfalls kein hreflang-Attribut gesetzt werden
  • Tipp: Verwendung von absoluten URL-Pfaden ist weniger fehleranfällig
  • Teste die Auszeichnungen! (über die Search Console etc.)

Besseres Shop SEO – Knut Barth

20161118_150401_resized

Knut Barth berichtet aus dem Alltag eines SEOs, der sich um große Online-Shops kümmern muss. Hier gibt er Einblicke in die Aufgaben und Probleme, die man sich täglich stellen muss.

Folgende Tipps gibt Knuth den Besuchern mit auf den Weg:

  • Kategorie und Artikelbezeichnungen dürfen nicht nur Top-generisch sein wie beispielsweise “Damen” oder “Herren”. Sonst entstehen oft Probleme bei automatisierten Überschriften und Descriptions.
  • In Shops entstehen oft Erklärungsprobleme wenn die Sichtbarkeit nicht steigt
  • Content-Evergreens sollten ständig aktualisiert werden
  • Indexsteuerung ist elementar für große Onlineshops. Oft entstehen Probleme durch Parameter
  • Bei Relaunches ist es wichtig ein effektives Redirect-Management zu realisieren
  • Redirects sollten immer automatisiert auf den letzten Redirect (durch Redirect Datenbank) geleitet werden
  • Prüfung nach möglichen Redirects erst beim 404 Aufruf. Ansonsten entstehen Performance-Probleme
  • Wichtig ist kontinuierliches Monitoring von Traffic und Rankings

Mobile SEO – Stefan Fischerländer

mobile-seo

Mobile SEO ist das Thema, welches in den nächsten Monaten an Gewichtung gewinnen wird. Stefan Fischerländer gibt in seinem Vortrag Tipps & einen Überblick über Mobile SEO.

Die Anteile des mobilen Traffics ist je nach Art der Website unterschiedlich hoch. Es gibt Seiten, auf denen fast ausschließlich Desktop Varianten ausgespielt werden. Trotzdem steigt der Anteil an mobilen Suchanfragen enorm an. Mobiler Traffic betrifft meist Smartphones, jedoch sind oft auch Tablets damit gemeint. Tablets gelten aber grundsätzlich als Desktop-Geräte.

Keyfacts sind:

  • Korrelation zwischen Desktop und Mobile beträgt etwa 0,9 -> sehr ähnliche Ergebnisse
  • Wer News macht und kein AMP betreibt verliert stark an Traffic, da die News Treffer auf mobilen Geräten zu 50% AMP Treffer sind
  • Responsive Design wird von Google präferiert
  • Mobile Seiten sollten im CSS mit “transform” ausgestattet sein -> 60fps -> bessere User Experience
  • Das Problem ist: Die Nutzer gehen per Smartphone auf die Websites, die Online Marketiers haben meist immer größere Bildschirme. Deswegen gibt es sehr oft Probleme mit den mobilen Websites
  • In Zukunft wird der Google Bot wahrscheinlich die mobile Version um indexieren betrachten
  • Mobile Seiten sind sehr viel interessanter, als eine App, da diese meist sehr schnell wieder gelöscht werden. Sie dienen selten als Ersatz für das mobile Web
  • Apps müssen mehr bieten als die mobile Seite, ansonsten lohnen sich Apps nicht
  • ca 20% der Suchanfragen auf Android Geräten sind Sprachsuchen
    • die Suchanfragen werden länger
    • Der Kontext wird immer wichtiger -> Aber immernoch nur für Apps
  • Aber: Progressive Web Apps lösen dieses Problem

Google Tag Manager – Technische Unabhängigkeit für SEOs – Stefan David

google-tag-manager
Der Google Tag Manager ist einfach und schnell implementiert und kann SEOs technisch unabhängiger von Entwicklern machen. Stefan zeigt in seinem Vortrag einige Tipps und Tricks, wie mit dem Google Tag Manager schneller und einfach gearbeitet werden kann. Dabei geht er auf Drittanbieter-Tags, Tracking und DOM-Manipulation ein.

Die wichtigsten Learnings aus dem Vortrag sind:

  • Das Setup des Google Tag Managers erfolgt über die Einbindung zweier Snippets in den Code der Website (Head und Body)
  • Nun ist man von den Entwicklern weitestgehend unabhängig, diese sollten aber auf jeden Fall mit einbezogen werden
  • Um nicht jedes mal die Tracking ID des Analytics-Kontos eingeben zu müssen, empfiehlt Stefan diese als Variable einzutragen
  • Die Verwendung einer Test-Property ist zu empfehlen, somit betrifft das Testen keine Live-Daten
  • Es gibt viele vorgefertigte Tags von Drittanbietern, die ohne großen Aufwand eingesetzt werden können
  • HTML, Javascript und Variablen können über den Google Tag Manager auf der Website eingebunden werden
  • A/B-Tests können mit Hilfe des Tag Managers und Google Analytics durchgeführt werden
  • Die Messung der Verweildauer von „Bouncern“ kann mit dem Tag Manager realisiert werden
  • Zum Schluss seines Vortrages hat Stefan noch 5 Tipps zum einfacheren Umgang mit dem Tag Manager gegeben:
    • Die Organisation von Arbeitspaketen kann über Folder realisiert werden, um für einen besseren Überblick zu sorgen
    • Workspaces sollten sprechend bezeichnet werden
    • Neue Versionen sollten ausführlich kommentiert werden
    • Kleine und wenige Änderungen sind besser als große und viele
    • Man sollte sich genau überlegen, wer Zugriff auf die Container hat, da schnell die Macht aus der Hand geben werden kann

Rankbrain – Gegenwart, Ausblick & Bedeutung für SEO – Kai Spriestersbach

Kai erzählt in seinem Vortrag über Rankbrain und zeigt, was das für SEOs bedeutet. Generell erklärt er grundsätzlich wie Machine Learning funktioniert und gibt anschließend Tipps auf was im SEO geachtet werden muss.

Zuerst stellt er grob die SEO Trends 2017 vor. Das sind:

  • Machine Learning
  • AMP
  • Strukturierte Daten

Folgende Fragestellung beantwortet Kai in seinem Vortrag:

Was setzt Google bereits ein?

  • Google ist keine semantische Suchmaschine sondern eine statistische

Was tut RankBrain?

  • Lernt von jeder Suchanfrage und gewichtet Faktoren unterschiedlich
  • Rankbrain lernt ständig dazu

Was tut Rankbrain jetzt schon?

  • Verbessert die klassische Suche
  • Übersetzt komplexe Suchanfragen in einfache Abfragen
  • Lernt, welche Rankingfaktoren in verschiedenen Bereich wichtig sind
  • Fokus auf relevante Inhalten im jeweiligen Kontext
  • Lernt aus positiven und negativen Nutzererlebnissen

Keylearnings sind:

  • User Happiness
  • Backlinks sind immer noch wichtig aber nicht mehr in allen Bereichen!
  • Schnelle Seiten ranken besser
  • Zufriedene Nutzer sind für langfristige Rankings sehr wichtig
  • Holistische Inhalte? → Ja, aber muss aber nicht für jeden Bereich seine
  • Zukunfssichere Ergebnisse
  • User Intent befriedigen

Fazit

Die SEOkomm war unserer Meinung nach ein voller Erfolg. Die Speaker waren auch in diesem Jahr wieder exzellent und die Veranstaltung sehr gut organisiert. Genauso wie man es von der SEOkomm gewohnt ist.

Wir freuen uns auf jeden Fall schon jetzt auf nächstes Jahr 🙂

KOSTENLOSE SEO ANALYSE
xpose_web-37
xpose_web-39
xpose_web-53
xpose_web-55
xpose_web-61
xpose_web-63
xpose_web-97
Unsere SEO-Experten analysieren Ihre Domain - kostenlos und unverbindlich.
  • Analyse Ihrer Domain auf SEO Kriterien und SEO Tauglichkeit
  • Unverbindliche und kostenlose SEO Analyse
  • Jahrelange Erfahrung im SEO

Domain*

Weitere Recaps:

Unsere Fans