Ich hatte ja in diesem Beitrag „Verweildauer als Qualitätsindikator und Rankingfaktor“ schon Mutmaßungen über Google´s Möglichkeiten, Qualität zu messen, angestellt.

Die Frage, wie eine Maschine wie Google über Qualität, gefallen und nicht-gefallen entscheiden kann, beschäftigt mich auch heute noch.
Heute haben sich für mich einige interessante Zusammenhänge in Bezug auf Google´s „Qualitätsmessung“ ergeben.
© Kurt Kleemann – Fotolia.com

Google testet die Performance auf verschiedenen SERP Positionen

Bei der Betrachtung der wöchentlichen Rankings ist mir heute aufgefallen, dass einige (Nischen)Keywords auf einmal wieder genau da waren, wo sie 1 Monat nach Launch der Seite waren. In der Zwischenzeit waren sie deutlich abgerutscht und schwankten immer mal wieder zwischen Seite 1 und 2. Jetzt stehen sie wieder stabil in den Top5.
Was war passiert?
Da wurde mir klar: Google experimentiert mit den SERP um Vergleichsdaten zu erhalten. So lassen sich ja die Zugriffszahlen von themenrelevanten Seiten vergleichen (z.B. Klicks und CTR). Anhand dessen ergibt sich für Google dann ein Qualitätsindikator. Google hat scheinbar alle Seiten, die zu einem Keyword relevant sind, auf verschiedenen Positionen „getestet“. Nach ein paar Monaten wurden dann die Daten (vermutlich CTR, Verweildauer und Bouncerate) verglichen und die Seite, die am besten abgeschnitten hat, auf die entsprechende höherer Position „verankert“.
Google misst Qualität also anhand von Benchmarking.
Benchmarking (= Maßstäbe vergleichen) bezeichnet die vergleichende Analyse von Ergebnissen oder Prozessen mit einem festgelegten Bezugswert oder Vergleichsprozess (von engl. Benchmark). – Wikipedia
Marcus Tandler hat es bereits in seiner großartigen Keynote (ca. 33.25) gesagt: Google testet, wie eine Seite zu einem bestimmten Suchbegriff und einer bestimmten Position in den SERP performt. Den Rest der ellenlangen „High Speed“ Präsentation kann ich übrigens auch nur wärmstens empfehlen!

KarlsCORE hat es vorgemacht

KarlsCORE hat jetzt zwar direkt nichts mit dem Google Algorithmus zu tun, aber im Grunde ist dies auch ein „vergleichendes“ Prinzip.
Quelle und Copyright: Karl Kratz Onlinemarketing
Wenn ich Karl richtig verstanden habe, dann verarbeitet das WDF/IDF-Analyse-Werkzeug alle Domaindaten aus ganz Deutschland. Bei der Optimierung mit KarlsCORE kann man dann quasi sehen, ob sich die Keywordfrequenz der eigenen Webseite auf der der anderen (vergleichbaren) bewegt. Da ich allerdings kein KarlsCORE-Nutzer bin, kann ich zur genaueren Funktionsweise nicht viel sagen.
+Karl Kratz Ich lasse mich hier gerne belehren, berichtigen und ausschimpfen. 🙂

Fazit

Es ist logisch und es macht Sinn: Wenn Google mit Webseiten Benchmarking betreibt (z.B. mit CTR und Verweildauer), so lassen sich mit den gewonnen Daten durchaus die „besten“ Suchergebnisse für die Nutzer gewinnen. Google kann mit seinen Algoritmen zwar Daten wie Traffic, CTR, Verweildauer und Bouncerate messen, muss sich allerdings in Bezug auf Textstil, Marketing-Psychologie, Überzeugungskraft einer Webseite und alle anderen unterschwelligen Faktoren auf Durchschnittsdaten verlassen.
Die großen Fragen die nun aber übrig bleiben: 
Kann meine Webseite, wenn sie einmal im „Google SERP Test“ versagt hat, überhaupt jemals wieder besser ranken? 
Experimentiert Google permanent, auch wenn eine Seite erneut optimiert wurde?

Kritik

Das ist zwar alles eine ganz tolle Erkenntnis, allerdings wird der Normal-SEO damit nichts anfangen können. Dazu brächte man ja alle CTR-, Verweildauer- und Bouncerate-Daten aller konkurrierender Webseiten. Und diese Daten hat bisher leider nur Google selbst.
Ich freue mich wie immer über Kommentare, Anregungen und konstruktive Kritik!