Newsletter

ReCap SEOkomm 2018


ReCap Seokomm 2018
04 Dez 2018

Die SEOkomm in Salzburg gilt als eine der wichtigsten Konferenzen für Suchmaschinenoptimierer im deutschsprachigen Raum. In diesem Jahr fand die Konferenz zum neunten Mal statt und wir von The Reach Group waren mit unserem Vice President Consulting Evert, Junior Digital Marketing Manager Martin und SEO Consultant Vincent aus dem SEO-Team mit dabei.

Hier wollen wir euch unsere Eindrücke von der SEOkomm schildern und einige der Vorträge, die für uns besonders interessant waren, kurz zusammenfassen.

Guter Kaffee und gute Agenda

Die SEOkomm findet seit 2009 in Salzburg statt, genauer gesagt in der Brandboxx in Bergheim bei Salzburg. Was gleich bei der Ankunft auffällt, ist die exzellente Organisation des Events: Keine Schlangen an der Registrierung, Snacks und Getränke überall, sogar der Kaffee ist ausgezeichnet, was mir so noch bei keiner SEO-Konferenz untergekommen ist (allerdings war es auch meine erste Konferenz in Österreich und hier hat man schließlich einen guten Ruf zu verteidigen).

Aber nicht nur die Organisation stimmt hier, sondern auch die Agenda: In 8 Sessions wird auf drei Bühnen von Strategie über Content bis Technik knallhartes SEO-Wissen von den Großen der Branche vermittelt. Gerade diese Konzentration auf Top-Speaker ist es, die die SEOkomm von anderen Konferenzen unterscheidet, wo die Auswahl der Tracks, die man besucht, oft einem Glücksspiel gleichkommt.

Daher fällt es uns auch schwer, eine Auswahl zu treffen, welche Talks wir euch hier vorstellen wollen. Nach reiflicher Überlegung hier unsere Favoriten der SEOkomm 2018.

Keynote – Marcus Tandler

Den Auftakt machte in diesem Jahr wieder der traditionelle Keynote von Marcus Tandler. Rasch schritt er innerhalb von 45 Minuten durch 420 Slides und verstand es, die Zuhörer auf diesem Weg mitzunehmen.

Am Beispiel seiner spanischen Seite von Ryte ging er auf die Auswirkungen des Medic Updates ein und zeigte, dass auch sie zunächst deutlich an Sichtbarkeit verloren hatten. Auffällig war es jedoch, dass nur solche Keywords an Sichtbarkeit verloren hatten, über die kaum oder gar keine Klicks generiert wurden.

Keywords, welche Traffic auf die Seite brachten, konnten ihr Ranking hingegen jedoch deutlich verbessern und im Endeffekt kam die Seite wieder zu ihrer alten Sichtbarkeit zurück, nur dass sie jetzt relevanteren Traffic erhält. Hiermit wird klar, dass mit diesem Update die Qualität der Suchergebnisse auf den SERPs eindeutig verbessert wurde.

Ein weiterer Trend, der vermehrt auf das SEO zukommen wird, ist die maschinenfreundliche Darstellung von Daten. Um Suchanfragen präzise beantworten zu können, werden URLs in den kommenden Jahren zunehmend an Bedeutung verlieren. Viel wichtiger wird hingegen die Strukturierung von Daten, anhand derer die richtigen Informationen direkt von Google erkannt und ausgespielt werden können.

In diesem Zuge ergeben sich auch neue Möglichkeiten zur Präsentation von Informationen. Während Google Videos zum großen Anteil bereits verstehen kann, haben sie über strukturierte Daten die Möglichkeit, zu Text-Content automatische eigene Videoinhalte aus verschiedenen Quellen selber zu erstellen.

Über die Strukturierung der Daten ist es ebenso bereits möglich geworden, dass PWAs (Progressive Web Apps, also eigentlich Websites) im Google Play Store gefunden werden können. Der Google Play Store fungiert somit nicht mehr nur als Plattform und Suchmaschine neuer Funktionen, sondern im entfernten Sinne auch für Websites.

Zudem bleibt abzuwarten, welche Erneuerungen Googles Betriebssystem Fuchsia mit sich bringen wird, welches zukünftig Chrome und Android ablösen wird. Die unterschiedlichen Device-Kategorien sollen darüber noch näherzusammengebracht werden und als Einheit funktionieren.

Data-driven Technical SEO: 20+ Tipps, um das Beste aus Logfiles herauszuholen – Bastian Grimm

Ohne Logfile-Analyse geht es heutzutage im technischen SEO nicht mehr. Hier erhalten wir authentische und detaillierte Daten zum Crawlingverhalten durch Google und andere Suchmaschinen. So lassen sich etwa Seitenbereiche und URLs identifizieren, die nicht ausreichend gecrawlt werden, oder solche, wo Crawlbudget verschwendet wird.

Bastian Grimm zeigte verschiedene Anwendungsbereiche und Fragestellungen, die sich per Logfile-Analyse bearbeiten lassen. Dazu gab er eine Reihe nützlicher Tipps, was beim Umgang mit Logfiles zu beachten ist:

  • Logfiles aus allen Quellen kombinieren: Oft werden Logfiles an verschiedenen Orten aufgezeichnet. Je nach Setup müssen etwa CDNs oder Cache-Server beachtet werden.
  • Logfiles präzise anfragen: Bereits bei der Anfrage an die IT sehr genau definieren, welche Informationen in welcher Form benötigt werden. So können auch Datenschutzbedenken von Anfang an ausgeräumt werden.
  • Zugriffe immer über Reverse-IP-Abfrage verifizieren: So können tatsächliche Zugriffe von Suchmaschinencrawlern unterschieden werden von Tools, die lediglich den entsprechenden User-Agent verwenden.

Darüber hinaus stellte Bastian noch verschiedene Tools vor, die zur Logfile-Analyse verwendet werden können. Hier ist momentan viel Bewegung in der Toollandschaft, sodass einige Neuerungen dabei waren.

Die aus meiner Sicht wichtigste Aussage dieses Vortrages ist, dass die Logfile-Analyse kein Projekt, sondern ein Prozess ist. Sie ist also nie wirklich abgeschlossen, da sich viele Insights erst durch eine kontinuierliche Überwachung des Crawlverhaltens gewinnen lassen.

Hier die Folien des Vortrags und ein Link zum Leitfaden zur Logfile-Analyse auf unserem Blog.

JavaScript SEO: A Guided Tour – Martin Splitt

Die zunehmende Verwendung von client-seitig gerendertem JavaScript zur Darstellung von Inhalten und Funktionalitäten kann zu einer Reihe von SEO-Problemen führen. Da hilft es, wenn mit Martin Splitt ein Entwickler von Google selbst erklärt, was momentan geht und was nicht.

Grundsätzlich stellen server-seitige Skripte kein Problem für Suchmaschinencrawler dar, da hier alle Skripte ausgeführt werden, bevor der HTML-Code an den Client übermittelt werden. Ähnliches gilt für rein kosmetische Skripte, die lediglich die Darstellung von Inhalten, nicht aber den Inhalt oder die Meta-Daten selbst verändern.

Problematisch kann es bei über JavaScript geladenen Inhalten werden, wie sie etwa bei Single Page Applications eingesetzt werden. Hier kann Google den Inhalt erst nach dem Rendering erkennen und bewerten. Hierfür muss Google deutlich mehr Ressourcen einsetzen als beim herkömmlichen Crawling, sodass Inhalte langsamer oder teilweise gar nicht indexiert werden.

Hier lauern auch einige Fallstricke, die zu massiven Problemen führen können:

  • Veränderung von Metadaten über JS: Wird etwa ein noindex-Tag erst nachträglich durch JS entfernt, beginnt Google überhaupt nicht mit dem Rendering. Die Seite wird demnach auch nicht indexiert.
  • Soft-404s: Wird eine Fehlerseite erst über JavaScript nachgeladen, erhält Google einen 200 Status Code und registriert einen Soft-404-Fehler.
  • Sneaky-404s: Werden Seiteninhalte beim Click auf einen Link mittels eines vorher geladenen Skriptes von Server heruntergeladen, ist dieser Link nicht teilbar und auch der Crawler erhält einen 404-Fehler.

Derartige Probleme können durch Dynamic Rendering vermieden werden, indem Zugriffe von Suchmaschinencrawlern automatisch erkannt werden und diesen eine serverseitig gerenderte Version des Inhaltes ausgespielt wird. Martin bezeichnete Dynamic Rendering jedoch lediglich als einen Workaround und Google hofft, bald nicht mehr darauf angewiesen zu sein.

Als Fazit empfiehlt er etwas salopp: „Einfach richtig machen, dann gibt es auch keine Probleme“

ROI im SEO: Messbarkeit des wirtschaftlichen Erfolgs im SEO – Artur Kosch

Mit Artur Kosch ging es in die wirtschaftliche Erfolgsmessung von SEO-Maßnahmen. Im Gegensatz zu vielen performancebasierten Maßnahmen im Online-Marketing ist es im SEO schwierig zu ermitteln, ab wann die umgesetzten Maßnahmen nun auch wirklich profitabel sind.  Er ging dabei auch auf Irrtümer ein, die bei der Messung des Erfolgs von SEO auftreten. Beispielsweise kann nicht der gesamte erzielte Umsatz der organischen Suche als Ergebnis von SEO-Maßnahmen betrachtet werden. Traffic und Umsatz, der über die Brand kam, sollte differenziert betrachtet werden.

Dies ist darin begründet, dass es oft keiner SEO-Maßnahmen bedingt, um mit der Brand gut zu ranken. Er kann jedoch mit einbezogen werden, wenn es bei der Brand der Fall ist, dass sie nicht auf den vorderen Positionen der SERPs platziert ist und dies durch SEO-Maßnahmen geändert werden soll.

Zudem wies er auf die Langfristigkeit der Projekte hin. Nach einem halben Jahr sind meistens kaum Ergebnisse zu sehen, nach einem Jahr oder mehr sieht es da bereits besser aus. Den meisten SEOs ist es bekannt, dass es dauert, bis die umgesetzten Maßnahmen auch Erfolge zeigen. Daher sollte nicht vorschnell über den Erfolg der Maßnahmen geurteilt werden.

Hier hilft nach Artur Kosch eine genaue Planung der Zielwerte und eine fundierte Analyse der Ausgangssituation.

So kann geplant werden, ab welchem Zeitpunkt der Break-Even überschritten und bis wann die Maßnahmen ROI neutral sein sollen. Kennzahlen sollten bestimmt, der Status-Quo ermittelt und das gesamte Potenzial abgeschätzt werden. Daraufhin ist zu bestimmen, welcher Anteil des möglichen Potenzials bereits gehalten wird, über welchen Zeitraum die SEO-Maßnahmen erfolgen sollen und welche Zielwerte im Rahmen der Laufzeit erreicht werden können.

Zielwerte aus Analyse-Tools sind nach ihm jedoch nur sinnvoll, wenn der organische Traffic einen geringen Brand-Anteil aufweist. Die Erreichung der Zielwerte unterliegt aber auch Abhängigkeiten, wie den zur Verfügung stehenden Ressourcen, dem Budget, der Konkurrenz, der Erfahrung, dem Alter der Domain oder auch Trends.

Anhand dieser Punkte und einem durchgängigen Monitoring der Maßnahmen, der Erfolge und der Entwicklung kann der wirtschaftliche Erfolg der Maßnahmen prognostiziert und kontrolliert werden.

Die richtigen SEO Maßnahmen: Ein Entscheidungsframework für SEOs – Sebastian Erlhofer

Gerade zu Beginn der Betreuung eines neuen Kunden durch eine Agentur oder einen Berater stellt sich oft die Frage, welche Optimierungen als erstes angegangen werden sollen. Das Problem ist hier, dass die Effekte einer Optimierung in der Regel nicht exakt vorausgesagt werden können und auch der Aufwand erst durch eine genaue Analyse klar wird.

Um dieses Problem zu lösen stellte Sebastian Erlhofer einen Prozess vor, der es ermöglicht, mit vergleichsweise geringem Aufwand eine hilfreiche Priorisierung aller anstehenden Aufgaben zu erstellen: Im Zentrum steht die sogenannte SEO ScoreCard, die verschiedene Teilbereiche der Suchmaschinenoptimierung durch eine Kombination aus automatisierter und manueller Kurzanalyse bewertet.

So wird für alle Bereiche ein ETI-Score ermittelt, der den Zeitaufwand, die Komplexität und die Auswirkungen der Optimierung widerspiegeln. Diese ETI-Scores werden einem Peer-Review unterzogen, sodass immer mindestens zwei SEOs in die Bewertung einbezogen sind.

Anhand der ETI-Scores werden Aufgaben priorisiert und anschließend durch Detailanalysen konkrete Optimierungsmaßnahmen definiert.

Die jeweiligen Ziele werden nach dem OKR-Modell festgelegt, was der Fokussierung dient. Ist ein Optimierungssprint abgeschlossen werden die Ergebnisse, Herausforderungen und Prozesse in der Retrospektive besprochen, anschließend findet eine erneute Bewertung mittels der ScoreCard statt um die nächsten Schritte zu definieren.

Sebastian räumt offen ein, dass es auch mit diesem Entscheidungsframework zu Fehlentscheidungen kommen kann, jedoch bleibt sein Fazit:

„Ein SEO-Framework erhöht die Erfolgswahrscheinlichkeit“

Google Tag Manager plus Data Layer: deine besten Freunde im Online Marketing – Sebastian Blum

Sebastian Blum gab in seiner Session zahlreiche Hinweise zur richtigen Implementierung und wie das Zusammenspiel zwischen dem Tag Manager und dem Data Layer optimiert werden kann. Der Data Layer war auch der Grundstein seiner Präsentation.

Er ging auf die Bedeutung und die Wichtigkeit des Data Layers ein und empfahl, alle wichtigen Parameter für das Tracking über den Data Layer einzubauen und zu messen. Der Data Layer sollte auch noch vor dem Tag Manager im Head eingebunden werden.

Für den Google Tag Manager gab er die Empfehlung, diesen nicht im Head sondern im Anfang vom Body zu implementieren. Bei schnellen Seiten sei dies komplett ausreichend und nur bei A/B-Test mit Hilfe des Google Tag Manager empfiehlt er, ihn in den Head einzubauen, um das „Flackern“ zu vermeiden.

Damit entfernt er sich zwar von der Empfehlung von Google, jedoch soll dies nach ihm die wahrgenommene Ladezeit einer Seite weniger beeinflussen. Die zu übermittelnden Daten sollen dabei nicht beeinflusst werden. Damit stellt er sich jedoch nicht nur gegen die Empfehlung von Google, sondern auch gegen die Meinung vieler namhafter Fachleute zu dem Thema Analytics und Tracking.

Die Gefahr, die dabei besteht, ist, dass bei einem fehlerhaften Einbau die Trigger im Tag Manager behindert und somit keine konsistenten Daten übergeben werden. Bei einem richtigen Einbau soll es jedoch nach Sebastian Blum einen positiven Einfluss auf die Performance der Seite haben.

Daher sollte er auch immer von der IT erstellt, getestet und eingebaut werden. Zum Testen kann übrigens der Screaming Frog verwendet werden, um zu sehen, ob er auf jeder Seite eingebunden ist und die Daten ordentlich angegeben werden. Der Vorteil eines robusten Data Layers ist es auch, dass er Relaunches einfach überstehen kann.

Er stellte auch die Verwendungsmöglichkeit mehrerer Container auf einer Seite vor. Die wäre sinnvoll, wenn beispielsweise mehrere Benutzergruppen den Google Tag Manager auf einer Website nutzen. Beispielsweise die Inhousebetreuung und Agenturen oder unterschiedliche Container für IT und Marketing. Somit kann auch eine einfachere Differenzierung zwischen Tracking und Werbung vorgenommen werden oder Opt-Out-Konfigurationen einfacher umgesetzt werden.

Fazit

Die SEOkomm in Salzburg konnte beweisen, weshalb sie zu den wichtigsten Konferenzen im Bereich der Suchmaschinenoptimierung zählt. Von der Themenvielfalt konnte alles von Technischem SEO über Content bis zur SEO Strategie abgedeckt werden. Egal ob man schon ein alter Hase im Geschäft ist oder erst gerade frisch dabei, jeder konnte für sich immer eine passende Session finden.

Wir konnten den einen oder anderen Denkanstoß für unser Tagesgeschäft mit abholen, dem wir auf jeden Fall nachgehen werden. Auch von der Organisation war die Konferenz super aufgestellt. Zwischen den Sessions waren die Pausen so getaktet, dass man es immer zu der nächsten Session geschafft hat aber auch nicht lange warten musste.

So wurde es ermöglicht, an nur einem Tag viel Input auf einem sehr angenehmen Weg zu vermitteln. Zwischen den Sessions und auch in der Mittagspause war auch noch genügende Zeit für den fachlichen Austausch gewesen. So können wir abschließend sagen:

SEOkomm, wir kommen gerne wieder!

Share

Vincent Dombrowski
Vincent Dombrowski

SEO Consultant