#2013FTW ;-)

Search wird evil, der Schnee ist von gestern – Was macht SEO morgen?
Rankingkriterien 2013

Wenn ich diesen Artikel mit der Aussage einleiten würde, dass sich SEO im Umbruch befindet wie nie zuvor. Würde ich lügen? Jedenfalls wäre es weder gänzlich falsch, noch aber bahnbrechend neu. Schon seit jeher verändern sich Rankingkriterien, seit jeher müssen wir Optimierer darauf reagieren, um seit jeher abgestürzte Rankings aufzufangen und neue Optimierungsmaßnahem zu eruieren. Lediglich die Methoden den SEOs die Arbeit zu erschweren werden zunehmend rabiater. War es anfänglich erst das unschuldige und etwas naive Keyword-Tag, das von Google abgeschafft wurde, gibt es nun mehr und mehr bislang wirksame Hebel, die uns Google nimmt – die Backlinks als jüngstes Peak. Neu ist das wahrlich also nicht, die Umstände Websites zu optimieren werden eben rauer – so müssen die erforderlichen Methoden zur Optimierung eben feiner werden. SEO ist deshalb nicht tot. Wie immer ändern sich nur die Spielregeln.

Was können wir morgen von SEO erwarten? Worauf dürfen und müssen wir uns einstellen? Welche Wege wird Google noch beschreiten, um den Kampf um die ersten organischen Suchergebnisse weiter zu verschärfen? Ein vager Blick in die Zukunft: Die SERPs sind der Schauplatz, wir sind David und Google ist Goliath.

Was bisher geschah: Panda und Penguin erschüttern die SERPs

Panda und Penguin haben uns in den letzten Monaten das SEO-Leben schwer gemacht. Sparen wir uns dieses leidige Thema wiederzukäuen, jeder weiß was gemeint ist. Links sind massenhaft wertlos, teils sogar schädlich geworden. Googles unendliche Gnade ermöglicht den Weg zum Disavow-Beichtstuhl, um sich als SEO selbst an den Pranger zu stellen. Doch Achtung! Erst einmal tief durchatmen, bevor man vor Google dermaßen blank zieht. Googles Plan uns erst in die Enge zu treiben, um uns dann diese scheintrügerische Möglichkeit zu geben ist schlichtweg evil.
ABER: Wir haben uns aufgerappelt, den Staub von den Schultern geklopft und machen uns nun auf die Suche nach neuen Kriterien, durch die wir unsere Websites und die unserer Kunden weiterhin unter die Top-Platzierungen bringen können.

Upcoming 2013 – Auf welcher Grundlage Google künftig Websites bewertet

Nachdem Google kontinuierlich Kriterien absägt, die nur annähernd nach Optimierung riechen, scheint es naheliegend, dass sich die Bewertung der Webseiten zukünftig auf Daten beziehen wird, die die Suchmaschine selbst generiert und die kaum manipulierbar sind. Realisiert wird dies durch die zunehmende Integration eigener Produkte, die riesige Datenmengen über die Nutzerverhalten erfassen.
Dazu gehört weit mehr als die Social Community Google +, sondern z.B. auch der eigene Browser „Google Chrome“, der komplette Surfchroniken der Nutzer liefert, das eigene Betriebssystem „Chrome“ und das mobile Betriebssystem „Android“, die sich am Markt fest etabliert haben. Google strebt noch nach viel mehr.

Aktuelle Entwicklungen belegen, dass sich Googles Browser Chrome am Weltmarkt gegen andere durchgesetzt und zum global meist genutzten Browser geworden ist.

Quelle: gs.statcounter.com

In Deutschland liegt Chrome zwar noch auf Platz 3 der meistgenutzten Browser, es ist jedoch bereits ein deutlicher Aufwärtstrend zu erkennen.

Quelle: gs.statcounter.com

Aufteilung der Browserverbreitung – Internet Explorer vs. Google Chrome vs. Firefox

Quelle: gs.statcounter.com

Die Integration der eigenen Produkte ist für Google äußerst hilfreich, um komplexe Schemata für typische Nutzerverhalten zu erarbeiten, die deutlich verschiedene Suchmuster abzeichnen, die wiederum deutliche Schlussfolgerungen über die Beziehung zwischen Suchanfrage und Suchergebnis zulassen. Das beste daran ist, dass alle Nutzer (uns SEOs inkludiert) die Daten freiwillig zur Verfügung stellen, indem sie Produkte wie Google+ und Google Webmaster Tools selbstverständlich nutzen. Da bleiben für Google kaum Wünsche offen. Welchen Daten sollte Google also noch mehr Vertrauen schenken, als den eigenen?

Google untergräbt die Vergleichsportale

Nicht genug, der Datenhunger der Suchmaschine hätte seine Fühler überall ausgestreckt. Google macht auch lange Finger bezüglich Portale, die Daten anderer Websites vergleichen und damit einen Service für Nutzer anbieten. Diesen Vergleichsportalen wird Google in naher Zukunft möglicherweise an den Kragen gehen und mittels vertikaler Integration der eigenen Produkte Nutzer bereits bei der Suchanfrage abgreifen – das Todesurteil ausnahmslos aller Vergleichsportale.

Hier nur einige Beispiele:

1. Google Hotelfinder
Quelle: http://www.google.com/hotelfinder/

2. Google Flights

Google Flights

Quelle: https://www.google.com/flights/#search;f=SFO;t=MUC,AGB;d=2013-01-02;r=2013-01-06;a=LH

3. Google Finance Advisor

Google Finance Advisor

Quelle: https://www.google.com/advisor/uscredit

Zukunftsthese: Trust-Nutzerverhalten-Traffic ist die SEO-Formel 2013

Unter allen angeführten Produkten der Hausmarke, wird zukünftig vor allem die soziale Plattform von Google für SEOs noch interessanter. Sie ist ein wesentlicher Baustein, um den Trustfaktor einer Seite anzukurbeln und wird sich als wichtiger Rankingfaktor etablieren. Über Google+ läuft sowohl die Nutzung des Author-Tags, als auch die der Place Pages, die vor allem für die Local Search bedeutend ist. Die Liste ist aber noch länger. Praktisch kommt man nicht mehr umhin Google+ aktiv zu nutzen, was sicherlich kein Zufall ist, wenn man sich die Schachzüge des Suchmaschinengiganten ansieht. (Dazu hier ein brillanter Artikel: http://pip.net/monopoly)
Ganz nebenbei steigert nämlich auch die Einbindung des Autorenbildes im Rich-Snippet spürbar die Aufmerksamkeit, ergo den Traffic. Dieser Aspekt wird von den meisten SEOs bereits effektiv genutzt – Punkt für Google. Ab hier ist dann der Webseitenbetreiber dafür zuständig mit seinem Content zu überzeugen, um die Nutzer zum Verweilen und Interagieren zu bewegen. Dank des Nutzerverhaltens, kann Google ganz genau erheben, ob die gefundene Seite für die Suchanfrage relevant war oder nicht. Was das für die Rankings bedeutet, muss an dieser Stelle wohl nicht extra erwähnt werden.

RDFa heisst, den Bots den Content scheibchenweise am Silbertablett zu servieren

Entgegen vieler Kollegen, die starke Verfechter des WDF*IDF-Prinzips sind, halte ich auch z.B. RDFa für zukünftig wichtiger. Google liebt klare Strukturen und Seiten, die logisch und simpel zu erschließen sind. Wie könnte man den Bots also noch schöner darbieten, was die Seite ausmacht, wenn nicht durch diverse Zusatzinformationen, die speziell für Googles Crawler mundgerecht aufbereitet wurden. Damit schaffen wir eine besser verständliche Verbindung zur Semantik der Seite, wo bekanntlich gerade hier Schwächen der sonst so intelligenten Bots liegen. Generell ist das Feld der semantischen Suche sehr interessant, dazu aber im nächsten Absatz mehr. Zunächst möchte ich mein Statement zu RDFa weiter begründen. Durch die Strukturierung der Seiteninhalte erreichen wir viel mehr, als nur die einfachere Crawlbarkeit durch Google. Rich Snippets, und das wurde nun zu genüge wiederholt, sind ein mächtiges Werkzeug, wenn es darum geht Traffic zu generieren. Wir erinnern uns an das Author-Tag, die Bewertungsmöglichkeiten, Anzahl der Kreise, in denen man sich befindet, Zubereitungszeit bei Rezepten, Preisangaben bei diversen Angeboten und vieles mehr. SEOs sollten diese Möglichkeiten nutzen, wenn sie dies bisher nicht ohnehin schon als Handwerkszeug wahrgenommen haben. Ich sehe hier eine Wechselwirkung zwischen Rich Snippets, Rankings und Traffic, die durch RDFa-Elemente enorm angekurbelt werden kann.

Semantic Search – Wenn Google zu wissen glaubt, was wir zu finden versuchen

Wie der Screenshot beispielhaft zeigt, erhalten wir zusätzlich zu den organischen Treffern weitere, möglicherweise passende Elemente. Im beistehenden Kasten rechts der eigentlichen SERPs allgemeine Informationen, die wir sonst für gewöhnlich auch in Wikipedia vermutet hätten. Google versucht damit zu verstehen, was wir meinen und zu interpretieren, dass in diesem Fall das „Deutsche Museum“ zu den Sehenswürdigkeiten Münchens gehört. (Ganz nebenbei geizt die Suchmaschine damit, die Nutzer an externe Seiten zu „verlieren“ und bindet deshalb solche Informationen sofort ein. Evil, evil, evil… Da nützen selbst Wikipedia über 90 % Top-Platzierungen nichts, sobald der Traffic erst gar nicht zustande kommt.)

Sind die Suchanfragen so eindeutig, wie in unserem Beispiel, stellt das die Suchmaschine noch vor keine größeren Probleme. Allerdings sind die semantischen Gepflogenheiten unserer Sprache so komplex und instabil, dass es einer Suchmaschine wie Google kaum gelingen könnte, die sich permanent ändernden Terminologien zu entschlüsseln und ihnen eindeutige Bedeutungen zuzuweisen. Das wäre nämlich nötig, um die menschliche Sprache für die Maschine in seiner Gesamtheit erfassbar zu machen und im Umkehrschluss effektiv nutzen zu können. Künstliche Intelligenz ist bislang zwar schon sehr gut entwickelt, jedoch fehlt ihr das, was uns Menschen vorbehalten ist, der Verstand. :)

Zusätzlich speist die Suchmaschine Informationen aus der offenen Datenbank Freebase, die unterschiedliche Bezeichnungen für gleiche Entitäten miteinander verknüpfen und wie Wikipedia umfangreiche Informationen dazu liefern. Nach diesem Prinzip ist es möglich, existierendem Personen, Gegenständen und Begebenheiten unendlich viele Informationen zuzuordnen, um Semantik maschinell besser erfassbar zu machen. Die Schwierigkeit liegt dennoch für Maschinen bei der Verwertung und Verarbeitung solcher Informationen, die bislang einfach noch zu diffus sind. Fraglich ob Google dieser Herausforderung Herr werden kann. Nüchtern betrachtet wäre das eher ein Fall für Facebook und Twitter, die durch Posts und Tweets täglich Unmengen an aktuellem Sprachgebrauch eingespielt bekommen.

Links sind nicht tot, allein die Perspektive darauf ändert sich

Traffic ist einer der zentralen, wenn auch indirekten Faktoren 2013. Links sind also raus, oder doch nicht? Ich behaupte Links sind immer noch enorm wichtig für gute Rankings und die Erklärung ist so simpel wie logisch: Um Traffic zu erhalten muss Aufmerksamkeit erzeugt werden. Aufmerksamkeit könnte möglicherweise direkt über die SERPs mittels Rich Snippets generiert werden. Aber auch über Links, die relevant und mit Berechtigung gesetzt werden. Dabei geht es dann weniger um die Empfehlungswirkung eines Backlinks, die ja aus SEO Sicht von Google recht willkürlich anerkannt oder abgesprochen wird. Der Traffic der über einen Link, ob nofollow oder follow erzeugt wird, ist weitaus schwieriger zu manipulieren und gibt Google den „verlässlicheren“ Hinweis, dass dies verlinkte Seite weiterführend und relevant ist. Möglicherweise wird in so einem Fall auch der Anchor-Text wieder stärker gewertet. Ergo erschließt sich damit, ob der Link eine Berechtigung hat, wie stark der Traffic ist, der geliefert wird und wertet damit den Link als wertvoll.

Hinzu kommt wieder das Nutzerverhalten, dass Google beobachten kann, sobald die User über den Link auf die eigene Seite kommen. Aus diesem Geflecht unterschiedlicher Aspekte, die allesamt direkt kaum beeinflusst werden können, könnte Google künftig präziser zwischen guten und minderwertigen Seiten und deren Relevanz unterscheiden.

SEO muss mittels Natürlichkeit gute Rankings erzeugen können – Ein Widerspruch in sich?

Natürlichkeit wird ein immer wichtigeres Stichwort für die Optimierung von Websites werden. Das widerspricht sich auf den ersten Blick völlig. Wie kann jemand etwas natürlich manipulieren? Das Selbstverständnis der SEO-Szene wird sich zukünftig verändern müssen. Dem Optimierer wird nicht nur Kompetenz zur Seitenoptimierung für gute Rankings abverlangt. Optimierer werden tolle Seiten für die Nutzer bauen müssen, um deren Verhalten zu „manipulieren“ oder schöner gesagt, zu leiten. Im Endeffekt wird man sich als SEO noch mehr auf die Generierung von hochwertigen Inhalten stützen müssen, die ganz natürlich Traffic erzeugen, die Nutzer ganz natürlich dazu bewegen Zeit auf der Seite zu verbringen oder damit zu interagieren. SEO wird nicht mehr „allgemein“ SEO sein, sondern sich in Teildisziplinen aufsplitten, die sich jeweils auf unterschiedliche Aspekte konzentrieren. Denn wie heißt es von Google so schön:  „It’s best to do one thing really, really well“.

Das Ende der Off-Page Faktoren

Alle diese Entwicklungen gehen auf Kosten jeglicher Off-Page-Faktoren, da Manipulation nicht auszuschließen ist. Für 2014 ist zu erwarten, dass das gesamte Off-Page-Paket wegfallen wird und die Suchmaschinen den Trust und das Ranking einer Seite komplett auf Grund anderer Aspekte erschließt. Gewohnte Größen wie der PageRank werden weiter an Aussagekraft verlieren, auch wenn Google das nicht offiziell zugeben wird. Künstliche Intelligenz ist weiterhin das Stichwort. Mit deren Hilfe können Empfehlungen und Bewertungen verschiedener Seiten gefiltert und verarbeitet werden. Besonders im Fokus stehen hierbei die Brands, für die der Trustfaktor ein unverzichtbares Kriterium ist und auch weiterhin bleiben wird.

Google ist noch längst nicht fertig!

Die Suchmaschine schleicht sich fast unmerklich an, um die gesamte Search zu vereinnahmen – und noch viel mehr. Das ist bemerkbar durch den kaum bezwingbaren Marktanteil als Suchmaschine, aber auch durch die vielen weiteren Produkte, die letztendlich wieder auf eins abzielen: Google in unserer Lebenswelt auf subtile Weise unverzichtbar zu machen. Dabei hält sich der Suchmaschinenriese aber nicht immer an die eigenen, uns auferlegten Regeln, wie wir beispielsweise feststellen können, wenn wir den Werbeanteil der SERPs im Hinblick auf das „Page Layout Update“ betrachten. Wäre Google eben nicht Google, würde es hier saftige Penaltys hageln. Das Unternehmen wirkt nicht unberechtigt von Zeit zu Zeit etwas willkürlich, aber solange wir uns dem beugen, wird Google an keine ernstzunehmenden Grenzen stoßen.

Zeit für Newcomer mit Potential…

…, die Goliath die Stirn bieten können. In der jetzigen Situation muss Google nämlich rein gar nichts Befürchten und kann sein Süppchen munter weiter kochen. Allerdings wäre es an der Zeit, dass sich diesbezüglich etwas regt. Nicht unbedingt im Hype-Thema Big Data – möglicherweise auch, aber sicherlich nicht nur. Ein echter Konkurrent für den Suchmaschinenriesen muss her. Dieser könnte möglicherweise im ontologischen Sektor mit intelligenter Umsetzung für semantische Suchanfragen, der Auswertung von Informationen und Analyse von Mustern auftrumpfen und wäre damit ein interessantes Moment, das Google’s Monopolthron ansägen könnte. Um zwei mögliche Kandidaten zu nennen, bei denen ich in diesem Bereich Potential sehe: Zum Einen Wolfram mit der neuen Applikation zur Datenverarbeitung Mathematica 9 (Videolink) und zum Anderen Teradata mit der neuesten Vorstellung ihrer „Aster Big Analytics Appliance“, die laut eigener Beschreibung eine Symbiose aus der Apache Hadoop und Teradata Aster darstellt.

Bislang wurden alle Versuche sich in Googles Marktsegmenten aufzubäumen niedergestreckt. Ob allein durch eine bessere Umsetzung der gleichen Idee durch Google, die die Ausbreitung eines neuen Players am Markt verhinderte oder durch das Aufkaufen der neuen Idee, die dann wiederum in die Google Produkte integriert wurde. Like.com ist an dieser Stelle ein Paradebeispiel dafür, wie Google rigoros vereinnahmt, was gut funktioniert, um es für sich zu nutzen. Vermutlich kommen aber völlig neue Namen und Unternehmen ins Gespräch, die bislang unentdeckt blieben.

Jedenfalls bleibt es spannend und ich freue mich darauf! Oder um es mit den Worten von Karl auszudrücken:
Ich wünsch Dir wilde Zeiten :-)

Über Marcus Schoeberichts

Marcus ist Inhaber der Agentur schoebs & friends und bloggt hier im Journal über diverse Themen im Bereich Online Marketing. Marcus bei Google+
Dieser Beitrag wurde unter Suchmaschinenoptimierung veröffentlicht. Setze ein Lesezeichen auf den Permalink.

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>