SEOkomm 2017 Recap – Infos, Vorträge und Insights

Das Team rund um Oliver und Uschi Hauser veranstaltet am 17. November 2017 zum achten Mal die SEOkomm – Suchmaschinen Leitkonferenz in Salzburg, Österreich. Tobias Fox moderiert in gewohnt humorvoller Manier den komplett gefüllten Track 1 an und sorgt für Aufbruchstimmung unter den Online Marketern. Die beiden Gastgeber, Uschi und Oliver Hauser, führen knapp 900 Teilnehmer, nach der mit bereits 800 Besuchern prall gefüllten OMX am Vortag, in die Konferenz ein. Das Lineup kann sich nicht nur thematisch sondern auch seitens der Sprecher sehen lassen. Die Crème de la crème der SEO Branche präsentiert aktuelle Tipps und Trends in der bewährten Location „Brandbox“. Die Stimmung ist ausgelassen, Roll Ups mit persönlichen Danksagungen an die Sponsoren, heiß dampfender Kaffee und das warme SEOkomm Branding empfangen die Konferenzteilnehmer. Es knistert bereits in der Eingangshalle voller Vorfreude und man spürt den ganz besonderen SEOkomm Spirit deutlich. Soviel bereits vorab: Wie jedes Jahr lohnt sich ein Besuch der SEOkomm kompromisslos. Im Folgenden zeigen wir unsere Take Aways der „Herzblut Konferenz“ auf:

 

Keynote: Marcus Tandler – Position Zero

Nach der Eröffnung durch Tobias Fox folgt wie üblich die Keynote von Marcus Tandler. Die Erwartungshaltung ist klar: Welche spannenden Trends hat er im Gepäck? Und natürlich: Wie viele Folien schafft er diesmal? ;)

420 Folien sind es dieses Mal!

Marcus Tandler beginnt wie gewohnt mit der Vorstellung seiner Person und geht folgend auf die Migration von onpage.org auf ryte.com ein. In vielen Beispiel zeigt er, wie Ryte die Featured Snippets beherrscht und wie sich CTR Daten verhalten. Im Laufe des Vortrags geht er speziell auf die Entwicklung von AMP, PWAs und auf den mobilen Bereich ein.

  • Migration ryte.com onpage.org
  • CTR gefallen bei Featured Snippets
  • Mehrfach Rankings
  • Vorteile Search Console
  • Knowledge Vault: Fakten statt Links
  • AMP weiterhin im Vormarsch
  • Payment noch schwierig bei AMP => neue API
  • Mobile first; Mobile index wird SEO revolutionieren
  • Google dominiert mit 95 % den Mobile Markt
  • URL aktuell für Desktop relevant
  • URL verschwindet Mobile
  • Schema aktuell noch wichtig; Google braucht die Daten
  • ZUKÜNFTIG geht alles in die Google Cloud
  • Jetpack: WP & PWA
  • 70 % von Zugriffen erfolgen über Bots
  • Langfristig gilt: Position Zero
  • Fragestellungen müssen zukünftig beantworten werden

 

Blumento-Pferde per Sprachsuche bestellen – Karl Kratz

  • Ergänzende Folien:
    Bastian Grimm: https://de.slideshare.net/mobile/bastiangrimm/digitale-assistenten-omx-2017
  • Karl Kratz zeigt im Live Modus die Anwendung von Siri und Alexa
  • „Kontextuelles Suchen“ ist sein Thema
  • Er weist auf Lernfunktionen der Digitalen Assistenten hin, welche die Datenbasis auf Dauer anreichern
    Anrufe tätigen und Navigationen starten sind die häufigsten Anwendungen der Voice Steuerung laut einer Statista Auswertung
  • Er weist darauf hin, dass die Datengenerierung und das damit verbundene Learning für die Maschinen notwendig sind, um zukünftig bessere Ergebnisse und ein besseres Verständnis entwickeln zu können
  • Hinweis auf den zunehmenden Trend der Sprachsuche – Jetzt starten, um zukünftig vorne mitzuspielen
  • Sprachsuche geht schneller und ist für das Gehirn weniger belastend als Tippen
    Verständnis der Spracheingabe ist aktuell noch teilweise fehlerhaft – entwickelt sich aber schnell und stetig
  • Wenn wir zukünftig Marken generieren, werden wir überlegen, ob diese einfach auszusprechen ist
  • Sicherheit wird auch in Zukunft noch ein großes Thema sein
  • Was kann man tun, um die Auffindbarkeit in digitalen Assistenten zu erhöhen?
    • JSON-LD nutzen
    • JavaScript Object Notation for Linked Data
    • Daten semantisch auszeichnen und Verständnis für Systeme erhöhen
    • Bspw. Adressen, Namen, Preise, Verfügbarkeiten, Marken etc.
    • JSON-LD Tool Tipp: https://json-ld.org/playground/
    • YELP nutzen für bspw. Alexa, diese fragt nicht über Google an sondern direkt bei YELP
    • Alexa arbeitet auf der Datenbasis von Bing, ebenso wie Siri und Cortana
    • Siri stellt zukünftig auf Google um, Bing wird zusätzlich mit einfließen
    • Bspw. sind lange Produkttitel kontraproduktiv, da diese vorgelesen werden; im Amazon SEO ist das zwar hilfreich, in der Sprachsuche allerdings destruktiv
    • Alexa schlägt nur zwei Ergebnisse vor, danach werden keine Produktvorschläge mehr erbracht
    • Bewertungen auf allen relevanten Portalen sind wichtig (bspw. Jameda, Facebook und Co.) => Rezensionsmanagement
    • echosim.io um die Alexa-Funktionen ohne Alexa zu testen
    • Diversifizierung der Suchsysteme wichtig – breiter streuen und nicht nur auf ein System konzentrieren

 

Marketplace SEO: Mit userzentrierter Shop-Optimierung zu mehr Umsatz – Olena Sikorska

Mehr und mehr User suchen Produkte direkt über Marketplaces wie Amazon oder eBay. In den USA beläuft sich der Anteil bereits auf 64 % und nur noch 40 % der User kommen über Search. Auch in Deutschland existieren bereits über 50 Marketplaces, weshalb es nicht verwunderlich ist, dass Unternehmen sich innerhalb Ihrer Strategie entsprechend umorientieren. Olena Sikorska fasst in Ihrem Vortrag die wichtigsten Fakten zum Thema Marketplaces zusammen.
Key Learnings:
  • Amazon und eBay sind nach wie vor Marktführer
  • Es geht auch dort, genauso wie bei Google, um den User: positive Erlebnis schaffen, passende Produkte anbieten, ausführliche Informationen bereitstellen, Verfügbarkeit und Auffindbarkeit gewährleisten, gutes Preis-Leistungs-Verhältnis und eine schnelle und einfache Abwicklung ermöglichen
  • Auch bei Marketplaces geht es um ständige Optimierung
  • Shops: Was muss optimiert werden?
    •  „Macht euren Shop vertrauenswürdig“ (Coverbild, Logo, Bewertungen)
    • Optimierung der „About me“ Pages
    •  Informationen zu Versand, Rückgabe und Garantie sowie Zahlungsmethoden bereitstellen
    •  Hochqualitative Bilder verwenden und Geschichten erzählen (Social Komponente)
  • Wie kann man seine Produkte attraktiver machen und Relevanz erzeugen?
    • Auswahl der richtigen Keywords
    •  Produkttitel, Bullet Points und Produktbeschreibung optimieren
    •  Backend Keywords einsetzen
    •  Auswahl der richtigen Produktkategorie
  • Wie kann man die Performace steigern?
    • Es geht nicht nur um Content-Optimierung, sondern auch um den Seller Rank
    • Optimierung von CTR und Conversion Rate verhelfen zu mehr Traffic und einem besseren Seller Rank
    • Wettbewerbsfähige Preise, kostenlose Lieferung, Warenverfügbarkeit und spezielle Rabatte sind wichtige Einflussfaktoren
  • Was sind die relevanten Traffic Quellen?
    •  Facebook
    •  YouTube
    •  Pinterest
    •  Messenger, Newsletter, PPC, Influencer, eigener Blog
Fazit: Man sollte sich auf den User fokussieren, seinen Shop als einen wichtigen Vertrauensfaktor beim User verstehen, relevante Keywords verwenden und die eigene Performance optimieren. Natürlich sollte man dabei die Traffic Generierung nicht vergessen!

Relaunch: Chancen, Risiken und Strategien für die Migration – Bastian Grimm

Bastian Grimm gibt wichtige und spannende Tipps bei einem Website-Relaunch. In seinem Vortrag stellt er Strategien zur Migration vor und zeigt auf, welche Maßnahmen bei einem Relaunch relevant sind.

Die wichtigsten Punkte und Learnings:

  • Never change a running system
  • Veränderung birgt Chancen
  • Altlasten los werden
  • Migration: Zielsetzung wichtig
  • Migarationstypen: Hosting, Design, Software, Domain, Template
  • Iterativer Ansatz statt alles
  • Generell um Hilfe bitten
  • Migrationsstrategie definieren
  • Crawl Budget beachten
  • Tools sind wichtig
  • Pre-Migration
  • Interne Verlinkung, 404er fixen
  • Alle URLs inventarisieren und dokumentieren
  • Benchmark und Pagespeed
  • URL-Redirect Mapping
  • Staging/Test Server bereitstellen
  • Canonical Tags, Alternate Tags, Paginierungen, AMPs, URLs anpassen
  • Verlinkungen in JS und CSS Dateien
  • Redirect Ketten vermeiden
  • XML Sitemaps überarbeiten
  • CDNs, schema
  • Search Console: disavow vorher übertragen
  • Crawl Rate übernehmen
  • Fetch & Render
  • Performance Monitoring: loggly
  • Wenn-Dann-Logik bei Testings
  • Anpassung der externen Verlinkung

Weitere Tipps:

  • technicalseo.com: Bulk Testing auf Google API Basis
  • Bilder umziehen
  • 503er bei robots.txt oder revisit-after
  • Ruhe bewahren

 

Technisches SEO @Otto – Patrick Christoph

1. Index Management:
  • Skalierbare Seitentypen
  • Schlechte Signale: Neue URLs waren immer im Index, keine Relevanz, Thin Content
  • 2016: Neue URLs nicht indexierbar; automatische Vorfilterung
  • Check der Artikelanzahl
  • Aggregation der Suchvolumina
  • Index Coverage Report: SC Beta
  • Indexierung SC: info Command oder einzelne XML Sitemaps
  • Produktseiten – Canonicals auf Produktebene: Schwellwerte einsetzen, PI als Alternative
2. Crawlability:
  • One Content = One URL
  • Aktuell: URL Struktur und Menü zusammenhängend
  • Logfiles: Reverse DNS Lookup, ELK
  • Monitoring: HTTP Status, Seitentypen, Rendering mit Referer
  • FN: PRG vs JS – JS funktioniert noch (base64)
  • Immer serverseitig alles ausgeben
  • HTTP2 noch nicht von Google unterstützt
  • Probleme bei Lazy Loading: Timeouts bei Produktbildern
  • Caching: Angaben im Header werden nicht immer angenommen und überstimmt

 

Shops mit Google Analytics E-Commerce Tracking optimieren – Markus Vollmert

Markus Vollmert von luna-park GmbH erklärt ausführlich, wie man in Google Analytics Enhanced E-Commerce aktiviert und was die Vorteile sind. Ganz klar ist, dass man mehr Daten bei den Impressions und Produktaktionen erhält.

  • Kaufprozesse werden in einzelne Stufen unterteilt
  • Die Trichteransichten des Kauverhaltens lassen sich nach Nutzern filtern
  • Man sieht alle Phasen eines Produktes (Detailansichten, Warenkorb, Kaufabschlüsse usw.)
  • Interne Werbeflächen lassen sich tracken und anschließend optimieren
  • Suchfilter lassen sich auswerten
  • Eigene Segmente für Nutzer und Sitzungen lassen sich erstellen

 

JavaScript SEO – Crawling, Indexierung und Auditing von JavaScript-Websites – Arthur Kosch

Ist der Einsatz von JavaScript Seiten sinnvoll und wie lassen sich solche Seiten für einen Crawler optimieren? Die Antwort ist: Aus SEO Sicht sollte man auf den Einsatz von JavaScript Seiten verzichten. Da sich dies aber nicht immer vermeiden lässt, gibt es hilfreiche Tipps von Arthur Kosch, wie man solche Seiten umsetzen sollte

Learnings:

  • Kaum eine Suchmaschine versucht JavaScript zu rendern (nur Google)
  • Der Googlebot ist aus technologischer Sicht auf dem Stand von Chrome 41
  • Keine „#“ in den URLs verwenden
  • Inhalte müssen nach dem Load-Event dargestellt werden
  • Inhalte müssen nach fünf Sekunden komplett geladen sein
  • User-Events werden nicht vom Bot ausgeführt
  • Strukturierte Daten mit JSON-LD realisierbar

 

Q&A / Webmaster Trend Analyse bei Google – Johannes Müller

John Müller beantwortet mittlerweile seit Jahren die Fragen der Webmaster Gemeinde. So nun auch auf der SEOkomm 2017. In der ersten Zeile zeigen wir die Fragen und darunter stehend die entsprechende Antwort von John Müller.

Weshalb werden Seiten mit Canonical auf eine andere URL teilweise indexiert?
Antwort von John Müller: Das Canonical Tag soll zwar auf die eigentliche Original URL zeigen. Jedoch erhebt Google deutlich mehr Signale, um die relevanteste URL zu ermitteln, als nur das Canonical Tag. Entsprechend kann auch mal eine kanonisierte URL in den Index gelangen und ranken.

Google Search Console: Würdest du empfehlen, bei einem Domainumzug auch die alte XML Sitemap in die neue Property in der GSC zu laden?
Antwort von John Müller: Es macht Sinn, die Sitemap in der alten Property stehen zu lassen und diese dann auf Dauer zu entfernen.

Backlinks, insofern „schlecht“, sollen angeblich nicht mehr bewertet werden. Wo ist die Grenze zwischen Penalty und „wird nicht mehr bewertet“?
Antwort von John Müller: Google versucht zu erkennen, ob der Link eine neutrale Empfehlung darstellt. Wenn das der Fall ist, ist das ok. Wenn die Links gekauft sind, durch Skripte erstellt wurden etc., versucht Google diese zu ignorieren und sich auf die relevanten Links zu konzentrieren. Manchmal wird dann auch zu viel ignoriert – aber meistens klappt das.

Wird es dann zukünftig überhaupt noch Penalties geben?
Antwort von John Müller: Ja, das wird so sein. In diesem Fall könnten alle Links oder auch die ganze Website abgestraft werden.

Wenn das hreflang Tag 100 % korrekt integriert ist, können teilweise trotzdem falsche Sprachinstanzen ranken.
Antwort von John Müller: Manchmal wird aufgrund der textuellen Verwandschaft (bspw. Deutschland und Schweiz) tatsächlich eine andere Länder URL ausgespielt. Deshalb sollten die einzelnen Varianten auch inhaltlich eindeutig für das jeweilige Land erkennbar sein.
Im Übrigen ist die Site Abfrage in diesem Bereich eher unzuverlässig, da diese kein normales User Verhalten darstellt. Entsprechend ist das Verhalten seitens Google auch sehr individuell und nicht zwingend mit echten Suchergebnissen vergleichbar.

PWA / Progressive Web Apps: Beim ersten Seitenaufruf wird ein großes JavaScript geladen. Wie bewertet Google die Ladezeit bei PWAs?

Antwort von John Müller: Google misst die gesamte Ladezeit, die benötigt wird, um die Seite zu laden. Diese Zeit wird dann im Benchmark verglichen. Auch wenn die Datei also größer ist, kann dies absolut in Ordnung sein. Natürlich ist uns die Ladezeit sehr wichtig und sie wird es im mobilen Bereich zunehmend. Was das „Aussehen“ der Seite angeht, empfehlen wir mit Fetch & Render zu testen, ob Google die Seite auch wirklich korrekt rendern kann.

Thema Mobile Index: Wenn man mit Responsive Content arbeitet, also mobil weniger Inhalte oder gekürzte ausspielt, was ist dann für die Rankingberechnung relevant?
Antwort von John Müller: Es kommt darauf an, wie das genau erstellt wird. Wenn das über CSS sauber geregelt ist, würde Google beide Varianten indexieren. Wenn es also bspw. zwei Divs gibt (Desktop / Mobile) und diese entsprechend ein- und ausgeblendet werden, sollte das funktionieren.

Hreflang: Ist es ratsam, mit Country Code Top Level Domains zu arbeiten oder funktioniert .com genau so gut?
Antwort von John Müller: Google kann die CCTLDs eindeutig den Ländern zuordnen. Das gibt zwar keinen Rankingvorteil, erleichtert aber das Crawling und hat Einfluss auf die Nutzersignale.

Disavow File: Gibt es eine Maximalgröße des Files und kann sich das Überschreiten der Filegröße negativ auswirken?
Antwort von John Müller: Es gibt eine maximale Anzahl an Bytes, die man einreichen kann. Negativ wird sich eine größere Datei nicht auswirken.

CCTLDs: .com für das Hauptunternehmen und Verzeichnisse für die einzelnen Länder – kann das negative Auswirkungen haben, wenn nicht die CCTLD genutzt wird?
Antwort von John Müller: Man sollte keine Domain nutzen, die nur aus Marketinggründen genutzt wird. Eine .de Domain sollte auch nicht unbedingt für Spanien genutzt werden. Das kann problematisch sein.

Datenschutzgrundverordnung: Google verhält sich angeblich ja konform in Google Analytics mit der IP Maskierung. Muss ich nun die Altdaten löschen?
Antwort von John Müller: Das kann leider nicht speziell beantwortet werden.

Neue Top Level Domains: Was ist der Unterschied zwischen CCTLDs und Branchen Domains / neuen Top Level Domains:
Antwort von John Müller: Die neuen Top Level Domains wie bspw. Berlin, werden generisch betrachtet. .berlin wird also ähnlich betrachtet wie eine .com Domain.

 

Machine Learning mit Word2Vec – Stefan Fischerländer

  • k Means Clustering: Clusterzentren finden
  • Einsatzmöglichkeit: Strukturierung von großen Datenmengen, z.B. FAQs
  • Hauptkomponentenanalyse durchführen
  • Einsatzmöglichkeiten: vorhandene Daten besser verstehen
  • Klassifizierung: neue Daten in bestehende Klassen einordnen => k-nearest-neighbours
  • Einsatzmöglichkeiten: Objekte oder Texte automatisch in vorhandene Kategorien einordnen
  • Google nutzt ähnliches Verfahren, um Webseiten zu klassifizieren (Machine Learning)
  • Wörter werden als Vektoren abgebildet und verglichen, um ein Ranking zu erzeugen: Vector Space Model
  • Live Beispiel von Word2Vec
  • Nutzung: Synonyme finden
Learnings:
  • Google versteht Suchintension immer besser, daher Fokussierung auf ein Keyword immer schwieriger
  • Klassische Rankingsignale werden immer unwichtiger
  • Nachvollziehen einzelner Rankings wird immer schwieriger
  • Google kann Fakten auslesen

Content Pflege – Inhalte analysieren, weiterentwickeln, löschen – Martin Höllinger

Das Content Budget der meisten Online Projekte beläuft sich aktuell noch auf ca. 10 bis 15 %, da Kunden häufig die Investition in guten Content als unnötig empfinden. Martin Höllinger zeigt die Wichtigkeit und sein Vorgehen zur Content Pflege anhand eines Praxisbeispiels:
1. Content analysieren:
      •  Eigene KPIs definieren, z.B. Rankings, Traffic, …
      • Analyse nach Quelle: Search, Verweise, Social Media, …
      • Ist der Content verlinkenswert?
2. Schwächen erkennen:
      • Low Quality
      • Duplicate Content
      • Very well hidden Content (Wie viele Klicks sind nötig?)
3. Content löschen:
      • Auf Weiterleitungen achten
      • 410-er, wenn man komplett löscht
      • Keine Seiten löschen, die Conversions und Traffic bringen oder Links haben
4. Content optimieren:
      • Es ist wichtig zu wissen, wie man den Kunden ansprechen möchte
      • User Intention muss holistisch abgedeckt werden
      • Verschiedene Elemente verwenden (Interviews, Videos, Bilder, …)
5. Welche Content Typen gibt es?
      • Evergreen Content
      • One Timer
      • Wiederkehrende Anlässe
      • Kategorietexte

 

Google steuern – Niels Dahnke

  • Google hat nichts zu verschenken
  • Wie wird das Crawl Budget definiert?
    • Alter bzw. Trust
    • Linkprofil
    • Crawl-Pfade
    • Größe
    • Erreichbarkeit
    • Priorisierung
    • Effizienz und Qualität
  • URLs mit geringem Mehrwert beeinflussen Crawl Budget negativ
  • Fragestellung: Wie viele Inhalte habe ich? Wie viele Inhalte indiziert Google?
  • Gephi nutzen: Crawling der eigenen Seite verstehen
    • Wie sieht die Struktur aus?
    • Hub Pages identifizieren
  • ELK Stack nutzen
  • Ziel:
    • Vollständiger Crawl bei akt. Zeit
    • Inhalte zeitnah in Index
  • Crawler steuern:
    • Robots.txt
    • Canonicals: Fehlerhafte Canonicals stören Google
    • Google ignoriert Canonicals bei ungleichen Seiten
    • Hreflang: Vorsicht! Kann viel schief gehen
    • Rel next und prev
    • Interne Links (keine 404 Verlinkungen, starke Seiten verlinken, Footer Links setzen)
    • Paginierung (Ghostblock)
    • PRG Pattern
    • XML Sitemaps
  • Aufräumen bevor Google es macht
  • Erfolg: 40 % SI Steigerung durch robots.txt

 

Data Driven SEO – Kai Spriestersbach

  • Wie denkt Google?
    • Google muss Suchintention erkennen
    • Retrieval System funktioniert nur bei Informational Queries
    • Tabs in Suche ändern sich nach Suchbegriff
    • Diversifizierung von Suchanfragen
    • Für jede Suchanfrage gelten eigene Ranking Faktoren
  • Neueste Whiteboard Friday anschauen!
  • Ranking Studien sind „sinnlos“
  • Wo helfen Daten?
    • Crawl Budget
    • Content Analyse
    • Logfile Analizer
  • Content Audit 2.0
    • Google Analytics richtig konfigurieren (Bounce Rate, Time on site)
    • Not provided Daten wieder holen: KeywordHero
    • ScreamingFrog; SEOratioTools; organic insights, net peak search console api sheet
    • Nach Klassen analysieren, User Engagement Ausreißer identifizieren
    • CTR Analysen nach Klassen
  • Welche Ergebnisse? Kleine Änderungen addieren sich über die Zeit
  • Was können Daten leisten?
    • Potentiale
    • Experimente
    • PRIOs erkennen

 

13 SEO Tipps, die du noch nicht kanntest – Dominik Wojcik

  • #1 FLIF, Free Lossless Format: 14 % kleiner als WebP; noch nicht in Browsern aktiv
  • #2 Performance neu denken: Angular und React; Preact Framework: 96ms bis act und 4kb
  • #3 JS Rendering: SSR vs CSR; Server side rendering aktivieren; Google Cache nicht als Referenz; pushstate ändern; JS nicht über robust sperren; schwieriges Header Code Handling; inline vs external JS; Rendertron oder preiender.io
  • #4 PWAs: nächste Stufe von RD und App Entwicklung; basiert auf HTML5, CSS3; laufen nur auf HTTPs; flipkart case pdf
  • #5 WEBVR: Native Integration Firefox 55
  • #6 Logfile Analyse mit Big Query & Google Data Studio: Skalierbar über Cloud, sharebares Frontend, geringe Kosten, langsam bei großen Datenmengen
  • #7 ELK: logz.io, loggly
  • #8 KeywordHero: not provided lösen, similiarweb
  • #9 Browser Fingerprinting: User Agent Header, Accept Header, Connection Header, Plugins, OS, Timezone, Resolution, Rendering mit webgl; uniquemachine Tool
  • #10 Octoparse: Web Scraping for anyone; Wettbewerber überwachen; Schema org überwachen, neue LPs, neue Kategorien, Content Update Zyklen, Redirects
  • #11 schema.org: question, answer; Sitenavigation Element für sitelinks; pending.schema.org link role und link relationship
  • #12 Download the internet: CommonCrawl; domain index für expired domains; content und text analyses fahren, KI algos trainieren, linkindex aufbauen, Content Marketing Daten für Analysen
  • #13 Save the web: Security Header setzen; Website sicher gegen Attacken schützen; Domainquali anheben, SEO Erfolg schützen; referier policy; Test securityheaders.io

 

So schützt du dein SEO vor den Kollegen – Maike Schultze-Rhonhof

Bei AXA wurde ein SEO Approval eingeführt, um die SEO Umsetzung zu gewährleisten. Seither überprüfen die Kollegen aus den anderen Abteilungen ihre Tätigkeiten immer auf SEO Relevanz. Gemeinsam mit dem Publikum wurde ein mögliches Approval konstruiert.

Learnings:

  • Der Chef muss dich lieben oder fürchten, Hauptsache er hört dir zu
  • SEO ist ein dauerhafter Prozess und darf nicht unter den Tisch fallen
  • Der SEO definiert mögliche Fragen, welche die SEO Basics abdecken
  • Die Liste muss in mögliche Prozesse eingebunden werden (Ticketing-System, CMS, …)
  • Interne PR machen und immer aufzeigen, dass Geld gespart wird

 

OnPage SEO mit Prozessen und Strukturen effizient organisieren – Stefan Keil

Onpage-SEO ist unabdingbar und ein mächtiges SEO Werkzeug. Stefan Keil zeigt, mit welchen Prozessen und Tools bei geringerem Aufwand mehr Effizienz erreicht wird. Wann sollte mir meine IT Sorgen bereiten? Wo liegen Wachstumshebel?

Learnings:

  • SEO Allgemein: Am Anfang steht eine Zieldefintion; am Ende Controlling und Nachjustierung
  • Ziel von Prozessen im OnPage: Nutzbarkeit und Crawlbarkeit erhöhen
  • Schlimmer als gar kein Internet: langsames Internet
  • Redirect Ketten identifizieren und abbauen
  • Intern verlinkte Fehlerseiten identifizieren und abbauen
  • Doppelte Titles und Descriptions identifizieren und bereinigen bzw. doppelte Seiten entfernen
  • Titles und Descriptions optimieren, um Nutzererwartung zu erfüllen und CTR zu steigern
  • Headlines anpassen, um die Relevanz der Seite zum Query zu erhöhen
  • Metriken aus der Search Console nach Anfragemustern aufteilen und betrachten
  • Überalterung von Content vermeiden, um die Aktualität für den Nutzer zu erhalten
  • Inhalte an das Suchverhalten anpassen (insbesondere im Hinblick auf Voice Search)
  • Inhalte strukturiert depublizieren, um den Überblick nicht zu verlieren
  • Sitemap mit 410-Fehlern erstellen und einreichen für schnelle Deindexierung
  • Alerting und Monitoring einrichten, um schnell handeln zu können
  • SEO als Teil der Qualitätssicherng definieren

 

Website Auditing mit Screaming Frog SEO Spider – Justin Keirath

Justin Keirath zeigt wie man mit Custom Search, Custom Extraction und API-Funkionen Optimierungspotenziale mittels Screaming Frog identifizieren kann. Der Vortrag ist sehr praxisnah. Viele Excel Funktionen und reale Anwendungsbeispiele machen dies möglich.

Learnings:

  • Der Google Cache Status kann im Bulk abgefragt werden
  • Identifikation von schlecht performenden Seiten ist schnell möglich
  • Traffic Probleme können identifiziert werden
  • Karteileichen werden ermittelt
  • Structured Data kann in der Masse überprüft werden
  • Seiten mit schlechten Bewertungen können ermittelt werden
  • Thin Content Kategorieseiten können identifiziert werden

 

Conversions, User Signals, User Experience – Nils Kattau

  • Eindeutige Kommunikation und klare Aufforderungen sind wichtig
  •  Visuelle Hierarchie ist extrem wichtig – Was ist wichtig, was weniger?
    • Vollflächige und kontrastreiche Elemente ziehen die Aufmerksamkeit auf sich
    • Überschriften müssen aussagekräftig sein
    • Erklärender Einleitungstext ist hilfreich
    • Vorteilskommunikation vornehmen
    • Wenn mehrere Schritte – erklären, welche Schritte das sind! („In nur vier Schritten zu…“)
    • Vertrauensbildende Elemente einbauen – Tipp: Video Testimonials
    • Call to Action ist sehr wichtig! Das muss nicht der Button sein; der Aufruf zur Handlung erfolgt im Normalfall vor dem Formular und nicht durch den Button
    • Formularbeschriftungen nicht in die Input Fields schreiben – Gefahr, dass Autocomplete das Formular falsch ausfüllt und das dann nicht auffällt
    • Zeitlichen Aufwand für den Vorgang kommunizieren: Wie lange dauert es, das auszufüllen?
    • Sicherheit gewährleisten und dies auch kommunizieren
  • Kleine Schritte führen zum Erfolg!
  • Immer einzelne Elemente testen, um granularen Erkenntnisgewinnung zu ermöglichen
  • Die richtigen Benefits finden – datengetrieben!
  • Die wichtigsten USPs am Anfang und Ende einer Zeile kommunizieren, um im Skimming Modus die Aufmerksamkeit richtig zu lenken
  • Meinungen der Zielgruppe erheben und nicht nach Bauchgefühl Vorteile des Angebotes kommunizieren
  • Skim /Scan / Read erfolgt immer
    • Oberflächlicher Scan
    • Scannen nach relevanten Inhalten
    • Lesen / Konsumieren der Inhalte
    • => Anschließend erfolgt die Conversion
  • Wichtige Begriffe hervorheben / fetten
  • Inhalte dürfen nicht interpretierbar sein – klar kommunizieren!
  • Farben bei Buttons zu testen ist überflüssig; Kontrast ist wichtig, aber die Farbe an sich bringt keinen Uplift
  • Share Icons immer im sichtbaren Bereich platzieren und aktiv zum Share auffordern
  • Originale Share Icons einbinden
  • Positive Handlungsaufforderungen nutzen (nicht: „zum Newsletter anmelden“)
  • Die vier wichtigen Schritte in der Conversion Optimierung:
    • Vertraue Daten, nicht deinem Bauchgefühl
    • These aufstellen
    • An der Zielgruppe ausrichten
    • Ziele erreichen
  • Tool Empfehlung: Google Optimize

 

Content: Failure is predictable – Thomas Mindnich

Das Vector Space Model übersetzt Worte in Vektoren, um diese vergleichbar zu machen. Wichtig ist in diesem Zusammenhang vor allem die Termgewichtung innerhalb eines Dokuments. Thomas Mindnich erklärt in seinem Vortrag anhand einer Failure Checkliste, was bei der Content Erstellung zu beachten ist:

  • Ein Text hat keine Chance zu einem Begriff zu ranken, wenn ein anderer Term innerhalb des Dokuments eine höhere Gewichtung hat als das eigentlich definierte Keyword (falscher Keyword Fokus)
  • Innerhalb eines Dokuments werden die verschiedenen Elemente unterschiedlich stark gewichtet: Wichtige Inhalte sollten im Main Content platziert werden
  • Es findet ein Paradigmenwechsel statt: Weg von reinen Keywords hin zu Topics
  • Texte können nur auf einen einzigen User Intent ausgerichtet werden
  • Grenzen der Einzigartigkeit kennen: Fast jedes Thema wird bereits im Netz abgedeckt, daher muss man versuchen, den besten Inhalt zu einem Thema zu erstellenK, keine Themen aufnehmen, die niemanden interessieren oder Dinge erfinden
  • Bei informationellen Themen muss immer eine gewisse Übereinstimmung zu den Top Contents da sein, sozusagen das Grundwissen zu diesem Thema
  • Google versucht Themen holistisch abzudecken, d.h. es wird zu jedem User Intent eine URL ausgespielt (siehe Foto). Ziel sollte es sein, ein Thema selbst so holistisch abzudecken, sodass man für dieses Thema so oft wie möglich ausgespielt wird

 

Amazon SEO – wie agieren Kunde und Algorithmus miteinander – Christian Kelm

Im letzten Vortrag auf Panel 1 geht es um Amazon SEO. SEO wie vor zehn Jahren möchte man meinen, aber es gibt inzwischen weitaus mehr zu beachten:

  • Die Suche beginnt nicht im Suchfeld – Produkte müssen zuerst für den Algorithmus sichtbar sein
  • Major Keywords dürfen nicht zu generisch sein (mit Suggest überprüfen)
  • #Alphabet
  • Brand Keywords sind wichtig
  • Schreibfehler bieten Chancen (Unwissenheit, Dicke-Finger-Syndrom, …)
  • Short- und Longtail Keywords müssen in allen Kombinationen verfügbar sein
  • Saisonalität beachten
  • Pricing Keywords (an der allgemeinen Price Range der Produktgruppe orientieren)
  • Bestseller eignen sich nur für homogene Produkte
  • Erzeuge ein Problem und biete gleich die Lösung dafür
  • Randomized Keyword Spam ist vorbei
  • Zielgruppe definieren, Strategie ausrichten und einhalten
  • Was man nicht messen kann, kann man nicht steuern!

 

Linkbuilding & Linkmanagement 2018 – Christoph Cemper

Wie jedes Jahr gibt es auch diesmal einen Ausblick zum Thema Links aus dem Hause LinkResearchTools.

Die Key Learnings aus dem Vortrag von Christoph Cemper:

  • Pinguin ist granularer geworden (betrifft einzelne Seiten oder Verzeichnisse) und in Real-Time
  • Es ergibt Sinn laufend das Linkprofil zu säubern, um schlechte Links zu vermeiden
  • Man sollte versuchen alle Links zu crawlen und nicht nur einen Bruchteil des Backlink Profils
  • Alte Disavow Files durchsuchen, denn evtl. findet man dort auch gute Links von einer Domain, die sich über die Zeit erholt hat
  • Linkaufbau kann auf einem „fehlerhaften“ Linkprofil nicht funktionieren
  • Man sollte sich seiner Konkurrenz annähern

 

How to rock in Local SEO – Nicole Mank

Anhand eines Cases zeigt Nicole Mank, wie man Local SEO erfolgreich umsetzt.

Learnings:

  • Grundsätzliches zu Local SEO: Website, Google My Business, Google Maps
  • Wichtig: Bewertungen auf Fremdplattformen, lokale Citations und strukturierte Daten einsetzen
  • Ziel: Höchste lokale Sichtbarkeit
  • Case: Volvo mit 300 Händlerseiten (Ausgangslage: schwierige Voraussetzungen):
    • Basis: Keyword Analyse
    • Keyword Strategie: Volvo + Stadt + Händler (= Prio 1 Keywords)
    • Onpage Analyse mit folgendem Ergebnis: Schlechte Usability, Händlersuche unübersichtlich, DC-Problematik, Thin Content, keine Meta Daten vorhanden, Basis Infos nicht vorhanden (Adresse, Öffnungszeiten etc.)
    • Google My Business – Status Quo: Eigene Händler und Multi-Marken-Händler vorhanden mit Links zur eigenen Webseite anstatt zu Volvo, keine Bewertungen, kein Branding in den Suchergebnissen
    • Offsite Analyse: Entwertung schlechter Backlinks
    • Wettbewerbsanalyse – Ergebnis: User-bezogene Fragestellungen sollten zukünftig abgedeckt werden, BMW verwendet strukturierte Daten => gute Händler-Seiten (Best Practice), Anzeigen im Local Bereich, Best Practice für Local SEO: Sixt
    • Maßnahmen:

Die größten Probleme im Volvo Case:

  • Umgang mit den Multi-Marken-Händlern
  • Suchvolumina realistisch ermitteln
  • Städte mit mehreren Standorten
  • Aufbau von guten Bewertungen => Schwierigkeit: schlechte Bewertungen loswerden
  • Anlegen und Verwalten der Einträge (z.B. zwei Geschäfte am selben Standort)

 

Weitere Recaps zur SEOkomm 2017:

 

Merken

Antwort hinterlassen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Unsere Fans