Newsletter

Campixx: Week 2015 – Recap SEO Campixx Tag 2


Campixx: Week 2015 – Recap SEO Campixx Tag 2
15 Mrz 2015

Am zweiten „SEO Campixx“ Tag und damit auch leider dem letzten Tag der gesamten Campixx Week 2015 möchten wir Ihnen auch heute noch einmal mit ausreichenden Themen versorgen. Vor allem möchten wir dabei für Sie in unserem letzten Campixx: Week 2015 – Recap die Themen „Wie du mehr aus Deinen vorhanden Rankings rausholst“, „Entitäten & user-zentrierte Topics, Die Zukunft der Suche“, Link Risikobewertung 2015″ und „Seitenarchitektur & interne Verlinkung effektiv steuern“ herauskristallisieren.

Wie Du mehr aus Deinen vorhanden Rankings rausholst

In dem Workshop von Justin Keirath sollte den Zuhören aufgezeigt werden, wie Webseitenbetreiber aus ihren vorhandenen Rankings noch mehr rausholen. Ein Vortrag, welcher das bereits vorhandene Wissen auffrischen sollte, aber auch noch detaillierte Einblicke geben sollte, wie aus den einzelnen Optimierungsprozessen noch mehr herausgeholt werden kann.

CTR Optimierung

Hier sollte für jeden Webseitenbetreiber das Ziel sein, die Aufmerksamkeit in der eigenen Ergebnisse in den SERPs gegenüber der Konkurrenz zu steigen, wie das möglich ist, wird hier kurz aufgelistet:

  • Title und Description anpassen
  • Breadcrump oder URL
  • Bewertung einbinden
  • weitere Rich-Snippets nutzen

Title Optimierung

Bei dieser Optimierung sollte sich jeder Betreiber einer Website vorher genau überlegen:

  • Was ist das zentrale Keyword der jeweiligen Unterseite
  • Was ist der Inhalt?
  • Was bekommt der Suchende von der eigenen Seite?

Eine Faustregel hierbei wäre durchaus:

Keyword + Inhaltsversprechen + Brand

Auch ist es durchaus hilfreich sogenannte Symbole mit in den Title mit einzubinden. Das Problem hierbei ist jedoch, dass diese zwar von fast allen Browsern unterstützt wird, jedoch bei „Chrome“ kann es dabei immer mal wieder noch zu Schwierigkeiten kommen.

URL oder Breadcrumb

Bekannt ist, dass Breadcrumbs Aufmerksamkeit auf sich ziehen können und dem Suchenden verhelfen das Ergebnis einzuordnen.

Breadcrumbs können jedoch auch bei zu langen URLs verhelfen, wenn diese länger als 70 Zeichen oder gar nicht aussagekräftig genug sind.

Bewertung einblenden

Bewertungen können den Betreibern sicherlich zu mehr Authorität verhelfen, aber was spricht tatsächlich für diese?

  • leicht einzubinden
  • sind ein Vertrauenssignal
  • heben das Ergebnis ab
  • erhöhen die Sichtbarkeit des Ergebnisses

Ein weiterer wichtiger Punkt ist auch, dass Google durchaus immer mehr Wert auf die Struktur legt. So ist es eine gute Variante, wie in dem Vortrag bekannt wurde, dafür „schema.org“ zu nutzen. Damit lässt sich schnell und einfach eine gute Struktur der eigenen anzeige bilden.

Bounce Rate

Damit lässt der Prozentsatz der Besuche einer einzigen Seite berechnen, nachdem der Besucher, ohne eine Interaktion, die Seite wieder verlassen hat.

Ein Problem dafür ist jedoch, dass die Bounce Rate in Google Analytics nicht unbedingt oder auch gar nicht aussagekräftig genug ist.

Für den eigenen Lösungsansatz könnte hier durchaus gesagt werden, dass es demnach nicht jeder Besucher gilt, welche keine Interaktion auf der Einstiegseite durchgeführt hat, sondern welche nach einer bestimmten Zeit die Seite wieder verlassen hat.

Scroll-Tiefe tracken

Hier kann bestimmt werden, wie weit der Besucher auf der entsprechenden Seite gescrollt hat.

Somit kann herausgefunden werden:

  • welche Element besonders Aufmerksamkeit bekommen hat und welches weniger, um dies möglicherweise im Anschluss zu entfernen
  • wo möglicherweise eine CTA eingebunden werden könnte

Aufenthaltsdauer erhöhen

  • einerseits entsprechen dieselben Optimierungen hier, wie bei der Bounce Rate
  • einbinden einer Bildergalerie
  • weitere interne Verlinkungen setzen, um den Leser zu weiterführenden Seiten zu locken
  • der Content sollte auch nicht nur in einer Form angeboten werden, kurze Beiträge mit einem verlinkten Hinweis auf einen ausführlicheren Beitrag, könnten hier hilfreich sein

Ein durchaus weiterer guter Hinweis ist, um aus seinem Ranking mehr herauszuholen, in sozialen Netzwerken „Gruppen“ aufzubauen. So könnte der sich der Weg von großem E-Mail Verkehr erspart werden und stattdessen lediglich den Aufruf „einer Gruppe beizutreten“ gestartet werden. 

Entitäten & user-zentrierte Topics – Die Zukunft der Suche

Im heutigen hochinteressanten Beitrag von Marcus Tober ging es um das Thema Entitäten und die zunehmende Beachtung der Nutzerorientierung bei Google. Wurde in den letzten Jahren Links und Signale eher als abnehmende Rankingfaktoren gesehen, zeigt die aktuelle Entwicklung wieder eine deutliche Zunahme des Themas Relevanz für den User, die wir über unser Verhalten durch Links, Facebook, Pocket, Feedly usw.  spiegeln. Zudem werden mobile Endgeräte noch wichtiger, als diese bereits schon sind und werden ggf. sogar einen eigenen Index bekommen.

Diese Entwicklung der Google-Algorithmen führt dazu, dass Keywords irrelevant werden. Es geht um den Kontext zur Suchphrase und das hierfür verantwortliche Hummingbird Update betrifft 96% aller Quieries, ganz im Gegenteil zu Panda und Pinguin, wovon nicht die Mehrzahl der Suchergebnisse betroffen ist. Maschinenlernalgorithmen dienen dazu, die Suche zu verbessern und Humminbird ist über den gesamten Algorithmus überall implementiert.

Beobachtet werden konnte dies bei verschiedenen Tests zwischen 2013 und 2015, bei denen 3 verschiedene verwandte Begriffe bzw. Suchphrasen abgefragt wurden. Gab es 2013 noch wenig Übereinstimmungen, so lag der Grad der Übereinstimmung im Jahr 2015 bei nahezu der Hälfte der angezeigten Ergebnisse.

Daher wird auch dem Keyword im Seitentitel weniger Bedeutung zukommen, allenfalls noch als aussagekräftiger Call to Action zur Auswahl des Ergebnisses, aber nicht für Google, sondern für den User.

Konsequenz für die SEO Strategie ist, dass von nun an immer berücksichtigt werden sollte, dass die Intention für User breiter gefasst wird und es mit Titel-Optimierung schwieriger wird nach oben zu kommen. Insgesamt haben aktuell wohl auch nur 11% aller Seiten überhaupt eine entsprechende Sichtbarkeit in Goolge, während 89% aller Domains gar nicht auffindbar sind. Für SEO-Taktiker mit Keyword-Fokus, bedeutet dies eine krasse Umstellung Richtung SEO-Stratege.

Spannend war zudem die Aussage, dass unteroptimierte Seiten trotzdem wachsen. Warum? Einerseits erlauben relevante Seiten mit Kontext die Suchintention mittels Schema.org und andererseits ist auch eine sehr gute Struktur und Übersicht, eine Bevorzugung in Google, wie dies bei Kochrezepten beobachtet wurde. 

Responsive Design ist essentiell für mobiles Ranking und daher müssen künftig beide Kanäle gut sein, Mobile, Desktop und Strategen versuchen schon mit immer mehr Bällen zu jonglieren, sei es Landingpages, Social Media, Analysen und Big Data. Doch es muss weiter umgedacht werden, weg von Keywords und Landingpages, hinzu holistischem Denken, es muss alles zusammenpassen, werden Fragen des Useres beantwortet, was machen die Wettbewerber, nur so lassen sich die Veränderungen bewerkstelligen. 

Schlussfolgerungen: 

  1. Technische Optimierung für Crawlbarkeit spielt weiterhin eine große Rolle
  2. Keine oder schlechte Rankings sind häufig ein Grund des Hummingbird-Updates, trotz Keywords
  3. Content-Konsolidierung führt oft zu besseren Rankings, aber nicht immer
  4. Wenn man an Content denkt, dann denkt man an neuen Content, die Probleme sind aber häufig Altlasten, diese ziehen das Ranking nach unten und müssen berücksichtigt werden!
  5. Man sollte immer sehr erfolgreiche Seiten anschauen, was Mehrwert anbelangt
  6. Contentziel sollte sein, sich an den Intention des Nutzers zu orientieren, will er kaufen oder will er sich informieren? Seiten mit Content zu Produkten sind nicht abgestraft worden. Google möchte im Produktbereich auch Mehrwert schaffen.

War SEO in der Vergangenheit sehr rezeptorientiert bei Problemen, so geht es jetzt weiter Richtung Usernutzen, Kontext und Mobile. SEO entwickelt sich immer mehr in eine strategische Richtung, denn die Relation Keyword und Titel beträgt heute gerade mal noch 0,4%.

Link Risikobewertung 2015

Ein Vortrag von Daniel Schramm der anderen Art. Mit wenig Text geprägt, dennoch fachlich und gut strukturiert. Ein Leitspruch mit welchem dieser Vortrag beschrieben werden könnte:

„Bilder sagen mehr, als tausend Worte“

Mit seinem Inhalt wollte Daniel seinen Zuhörern auf den Punkt gebracht mitteilen, welche Risiken sich beim Linkbuilding verbergen und wie ein Betreiber einer Website aus einem möglichen „Penality“ wieder herauskommt.

Kernpunkte dieses Vortrages waren:

  • Der Rückblick auf „1999“ oder allgemein früher
  • Back to the future seit 2012
  • Wege aus Penality

Der Rückblick auf „1999“ oder allgemein früher

Durchaus kann sich vor Augen geführt werden, zu Anfangszeiten war Linkbuilding ein gutes und einfaches Geschäft. „Schnell und einfach“ konnten unterschiedlichen Verlinkungen zu anderen Webseiten gesucht und gesetzt werden. Zunehmend wurde dieser Prozess schwieriger, womit Daniel auch gut den zweiten Teil des Vortrages einleiten konnte.

Back to the future seit 2012

Mit kurzen Fakten wurde dem Zuhörer hierbei der Werdegang seit 2012 dargestellt.

  • 24.04.2012 kam das erste Pinguin Update
  • anhand dieses Updates war die Verlustrate in der Sichtbarkeit, bei vielen Webseiten enorm, teilweise bis zu 90%
  • viele Betreiber schreckten anhand dieser Einbuße auf und SEO bekam damit einen großen „Knick“

Wege aus dem Penality

Leider auch heute noch, kann es passieren, dass Webseitenbetreiber in ein sogenanntes „Penality“ rutschen. Eine Sanktion einer Website durch Google, welche auftritt, wenn eine bestimmte Website gegen die Google Richtlinien für Webmaster verstößt. Google unterscheidet dabei zwischen einer algorithmisch bedingten und einer manuell vergebenen Abstrafung.

Nach solch einer Abstrafung erhält der Webmaster von Google eine Benachrichtigung in den Webmaster Tools mit dem Hinweis, dass unnatürliche Links auf der entsprechenden Seite gefunden wurden.

Die Auswirkungen können dabei massiv sein, etwa durch eine enorme Einbuße in der Rankingposition und im Sichtbarkeitsindex. Wie kommen solche Webseiten jedoch wieder aus dieser Abstrafung heraus?

In den Webmastertools bekommt man dann Hinweis unter „Suchanfragen“, „manuelle Maßnahmen“. Sicher sein sollte sich jeder aber, dass manuell aufgebaute Links auch nur manuell wieder abgebaut werden können.

Erster Schritt: Daten sammeln

  • schlechte Links identifizieren
  • Einsatz von Webmaster-Tools
  • Majestic SEO
  • Ahref
  • LinkResearchTools (Cemper o.ä.)

Sicherheitshalber sollte sich hierbei jeder einzelne Link genauer angeschaut werden.

Zweiter Schritt:

  • Eine gute Möglichkeit bietet dabei der „Link-Detox Screener“.
  • Link identifizieren und löschen, wenn Link extern jeweiligen Webmaster kontaktieren.
  • für Dokumentation öffentlich einsehbares Google Doc Sheet verwenden

Dritter Schritt:

  • in „Google Disavow File“ entsprechenden abzubauenden Links eintragen

Vierter Schritt:

  • Google Bescheid geben, jedoch sollte hierbei eine Wartezeit von ca. 48h eingehalten werden, da es sonst passieren kann, dass der Google Mitarbeiter die Daten noch gar nicht sieht
  • Meldung an Google sollte jedoch sehr detailliert beschrieben sein:
    • mit Einsicht auf „Schuld“
    • getroffene Gegenmaßnahmen
    • ernst gemeinte Entschuldung
    • bitten um erneute Prüfung

Allgemein für den Linkaufbau auf einer Website sollte klar sein:

  • der erste Eindruck zählt
  • Historie der Domain betrachten
  • Themenrelevanz
  • keine gekauften Links
  • sollte weiterhin gepflegt sein

Als Fazit beschreibt Daniel seinen Vortrag:

„Links sollten nicht nur natürlich aussehen, sondern auch natürlich sein!“

Seitenarchitektur & interne Verlinkung effektiv steuern 

Im kontrovers diskutierten Beitrag von Tobias Mirwald ging es um die optimale Seitenstruktur und Verlinkungsstrategie komplexer Seiten. Gleich am Anfang wurde hierzu erklärt, warum der Google Pagerank (PR) nicht tot ist, sondern vielmehr einen bedeutenden Teil des Hummingbird Algorithmus darstellt, auch wenn der in der Toolbar dargestellte PR wohl nicht mehr aktualisiert wird.

Zwar sollte der PR nicht mehr upgedated werden. Aber das Web ist groß und wächst immer weiter, dies bedeutet im Umkehrschluss, zunehmend hohe Serverressourcen für Google. Nur eine Priorisierung der zu crawlenden Webseiten mittels einer dafür bestimmten Kennzahl, würde es Google ermöglichen hierbei entsprechend wirtschaftlich zu arbeiten. Der PR steht daher im direkten Zusammenhang mit der Crawlinghäufigkeit.

Links sind immer noch der beste Weg, um herauszufinden wie eine Seite im Index gewichtet wird. Und dazu zählen nicht nur die externen, sondern auch die internen Links einer Seite die den Linkpower an die jeweils nachfolgend verlinkte Seiter weitergeben. Eine geeignete Webseitenarchitektur kann daher wesentlich dazu beitragen, wie entsprechende Seiten, Unterseiten oder Artikel gerankt werden.

Prinzipiell gibt es zwei geeignete Arten von Webseitenarchitekturen: eine flache und eine tiefe Seitenarchitektur.

Eine flache Architektur ist für das Crawling und auch den User besser, da kürzere Linkpfade User und Suchmaschine schneller ans Ziel führen. Unterteilt wird dabei in Startseite, Kategorie, Subkategorien und Artikel.

Das sogenannte Siloing ermöglicht hierbei das Aufteilen in flache Strukturen mit wenigen Unterseiten und Querverlinkungen. Vorteile sind hierbei insbesondere die gleichzeitige Steigerung der Themenrelevanz durch Fokussierung, die flachere Verteilung des Linkjuices, sowie eine bessere Gewichtung der Unterseiten durch Reduzierung der Linkgesamtzahl pro Seite.

Wer die Formel des PRs berücksichtigt, sieht, dass zu viele interne Links nicht gut sind. Daher sollte man die Linkzahl auf ein sinnvolles Maß begrenzen und unbedingt Doppelverlinkungen vermeiden. Gleichzeitig sollten dagegen wichtige Seiten intern öfter verlinkt werden.

Ankertexte sollten immer mit den passenden Keywords ausgezeichnet werden, da nicht beschreibender Anchor Text sonst verschenktes Potential darstellt.  Der Anchor Text liefert Google wichtige Hinweise darauf, worum es auf der verlinkten Seite geht. Nichtssagender Linktexte wie „hier klicken“ sollten vermieden werden. Linktexte sollten immer eindeutige Signale und keine gemischten Signale sein.

Google hat patentierte technische Möglichkeiten um Nutzerverhalten auszuwerten und User Behavior zu erkennen. Das mögliche Userverhalten sollte daher auch bei der internen Verlinkung und Seitenstruktur immer berücksichtigt werden.

Der Canonical Tag liefert Hinweis, welche URL-variante einer Seite erscheinen soll. Canonical Tags sollten dennoch schon im Voraus vermieden werden, da Google Seiten mit Canonicals ebenfalls crawlt, wodurch das Crawl-Budget entsprechend verbraucht wird.  Anwendungsbeispiele sind beispielsweise die Verwendung von Tracking-Parametern oder Session-IDS, Inhalte die unter URLs mit „http“ und „https“ ausgegeben werden, Veröffentlichung von Inhalten auf mehreren Domains oder das Anbieten von Druckversionen von digitalen Inhalten (z.B. von Pressemitteilungen).

Kontrovers diskutiert wurden das Thema Nofollow-Attribut im Falle von interner Verlinkung. So bestand weitläufig die Meinung, dass bei interner Verklungen keine Berechtigung  bestünde. Der generelle Einsatz bezieht sich auf Links, denen der Googlebot nicht folgen soll. Diskutiert wurde dabei die Frage, ob durch das Attribut kein Link-Juice übertragen und Crawlbudget eingespart wird bzw. ein Verlust des Linkpowers stattfindet.

Als mögliche Anwendungsbeispiele für die Attribute Nofollow und Noindex wurden folgende Anwendungsbeispiele genannt:

  • interne Suche
  • Faceted Navigation
  • Hub-Seiten – Links auf SEO-irrelvante Seiten
  • passwortgeschützte Bereiche 

Beim Umgang mit Paginierung wurde die Verringerung der Linkzahl genannt. Um Crawl-Budget via Robots.txt-Datei sparen wurde empfohlen, dies immer zu vermeiden, da der Linkjuice sonst verpufft.

Für Statuscodes und Weiterleitungen sollte nur der 301er-Code verwendet werden und eine Weiterleitungskette unbedingt vermieden werden, denn je länger Redirect-Ketten sind, desto weniger Linkjuice kommt am Ende an.

Fazit:

Auch der letzte Tag der Campixx Week 2015 zeigt wie wichtig es ist die aktuellen Änderungen von Google zu beobachten und entsprechende Anpassungen durchzuführen. Wichtig ist dabei vor allem die zunehmende Wichtigkeit von Mobile Devices und der User Intention, die Google über die semantische Suche abbildet. 

Gesamtfazit:

Uns hat diese Campixx Week 2015 sehr gefallen. Wir hoffen dabei viel für unsere Leser mitgenommen zu haben und freuen uns auf den weiteren Dialog mit unseren Interessenten und Ihre Eindrücke.

Weiterführende Links zu den einzelnen Tagen dieser spannenden und informativen Woche finden Sie in den nachfolgenden Beiträgen: 

 

Weitere Recaps:

http://www.takevalue.de/blog/seo-campixx-2015-recap-tag-1-von-patrick/#sthash.kAPiyduA.dpuf
http://www.takevalue.de/blog/seo-campixx-2015-recap-tag-1-von-patrick/#sthash.kAPiyduA.dpuf
http://www.takevalue.de/blog/seo-campixx-2015-recap-tag-1-von-patrick/ http://www.clicks.de/blog/seo-campixx-2015-recap https://www.sblum.de/seocampixx https://www.1aseo.de/blog/campixx-week-2015-und-seo-campixx-2015-recap.html – See more at: http://jonasweber.com/seo-campixx-recap-2015/#sthash.kAPiyduA.dpuf
Share

Marcel Hanf

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *