ES

(not provided) bei 75% in Google Anayltics – Was nun?

25. September 2013 | AutorIn:gernot_schimek

Seit ziemlich genau zwei Jahren lässt sich in Google Analytics in den Keyword-Berichten ein Eintrag mit der Bezeichnung (not provided) finden, welcher alle Suchanfragen sammelt die über eine verschlüsselte Suche in Google abgesetzt worden sind (etwa durch in Google angemeldete Nutzer). Sehr zum Leidwesen vieler SEO nahm der Anteil der “verschluckten” Keywords stetig zu, bis Anfang September die Bombe einschlug: Laut notprovidedcount.com hat sich der Anteil von knapp 48% Ende August im Laufe des Monats September auf 75% erhöht – Tendenz steil nach oben. Google hat diesen Anstieg bestätigt, Grund dafür ist die flächendeckende Verschlüsselung der Suchanfragen aus Datenschutzgründen -  nicht zuletzt vor dem Hintergrund des PRISM-Skandales, wie von Searchengineland vermutet wird. Auch bei unseren Kunden konnten wir diesen Anstieg feststellen, hier ein Beispiel von einem Kunden aus dem Bereich Telekommunikation:

Starker Anstieg von (not provided): Besuche der organsichen Suche (Blau) vs. Besuche mit (not provided)-Keywords

Konsequenz: Drei Viertel des organischen Traffics der Webseite geben keinerlei Informationen mehr über die betreffenden Keywords aus.

Viele SEOs stehen angesichts dieser Entwicklung vor einer schweren Krise, war doch die Auswertung der Keyword-Performance ein wesentlicher Teil des Controllings. Wenn also notprovidedcount.com hochrechnet, dass vor Ende dieses Jahres (not provided) einen Anteil von 100% erreichen wird, fallen die Reaktionen schon heftig aus. Gerade im englischsprachigen Raum wurden schon Boykottaufrufe gegen Google laut („Zeit um auf Bing zu wechseln!“) und selbst Rand Fishkin sagt in seiner Analyse zu diesem Thema:

„I think this is Google abusing their monopolistic position in the United States. Unfortunately, I don’t really see a way out of it. I don’t think marketers can make a strong enough case politically or to consumer groups to get this removed. Maybe the EU can eventually.“ (Rand Fishkin – When Keyword (not provided) is 100 Percent of Organic Referrals, What Should Marketers Do?)

Ich möchte an dieser Stelle kurz auf diese Reaktionen eingehen:

  1. In Amerika mag man vielleicht versucht sein Google komplett von seiner Seite zu verbannen (Bing liegt zwar weit hinter Google, hat aber mehr Marktanteile als in Europa), aber in (Mittel-)Europa ist das keine Option. Überhaupt: Aus unternehmerischer Sicht muss ich mich in dem Feld bewegen, wo meine Kunden sind, nicht in jenen, wo die Arbeitsbedingungen leichter sind. Perlentauchen kann ich schließlich auch nicht im Schwimmbad, auch wenn dort das Wasser vielleicht wärmer ist.
  2. Auch wenn Google in Europa kritisch beäugt wird – sowohl von Seiten der EU als auch auf nationaler Ebene – wird die Branche in diesem Fall keine Verbündeten hier finden. Im Anbetracht der Tatsache, dass Verschlüsselung – zumindest offiziell – aus Datenschutzgründen vorgenommen wird, wird die Öffentlichkeit keinen Grund dafür haben, sich in diesem Thema für die Interessen der SEOs zu engagieren. Die Frage „Soll Google mehr der von ihnen eingegeben Informationen an private Dritte übermitteln?“ wird allen berechtigten Begründungen zum Trotz von vielen Usern wohl negativ beantwortet werden.

Auch wenn viele Reaktionen vielleicht überzogen sind, hinterlässt der Anstieg von (not provided) eine spürbare Lücke bei den Controllingmöglichkeiten, die man als SEO hat. Allerdings kann man mit ein wenig Gespür und Geschick zwar die verlorenen Informationen zu den Keywords nicht 1-zu-1 ersetzen, aber trotzdem noch immer ganz gut den Erfolg seiner SEO-optimierten Webseiten mit Google Analytics einschätzen. Ich möchte hier einen möglichen Ansatz dafür vorstellen.

Trotz (not provided) möglich: Indirekte Erfolgsmessung der Keywords

Vorweg: Bedingung für eine indirekte Erfolgsmessung ist, dass man einen Überblick darüber hat, welche Seiten für welche Keywords optimiert sind bzw. für welche Suchanfragen die Seite Potential hat zu ranken (Brand-Begriffe, Long-Tail, usw.). Bei Seiten mit gutem SEO sollten diese Informationen vorhanden sein, bei neuen Seiten sollte man sich empirisch oder mit Hilfe von SEO-Tools einen Eindruck verschaffen. Sind diese Voraussetzungen erfüllt, kann man sich daran machen (not provided) zu „zerpflücken“. Denn obwohl (not provided) auf den ersten Blick stark aggregiert wirkt, kann man dennoch Ansätze zur Differenzierung des Traffic finden.

Interessant ist vor allem, wo mein Traffic von Google eigentlich bei mir ankommt. Wenn ich mir die Zielseiten der Keywords meines organischen Google-Traffics ansehe (etwa als sekundäre Dimension), kann ich schon sehr gut abschätzen, welche Suchbegriffe sich hier verbergen. Denn wenn eine Seite auf eine Begriffskombination optimiert ist und für diese in der Vergangenheit gut gerankt hat, tut sie es auch jetzt -  (not provided) ändert daran nichts. Natürlich erlaubt diese Betrachtung nur eine grobe Einschätzung des Erfolges der Webseite und verrät mir nicht mehr im Detail, welche expliziten Suchanfragen zu meinen Traffic führten, auch gewinne ich keinerlei Einblicke hinsichtlich Long-Tail mehr. Aber ich erkenne immer noch ob die Seite in der organischen Suche funktioniert oder nicht. Und da ich ja im Idealfall weiß, auf welche Begriffe die Seite optimiert wurde, kann ich so bei meinen Keywords gegensteuern.

Um den Erfolg einer Seite genauer beurteilen zu können, sollte natürlich immer die Rankingposition der jeweiligen Seite im Auge behalten werden. Diese Information lässt sich mit Hilfe eines benutzerdefinierten erweiterten Filter relativ leicht selbst in Google Analytics anzeigen, eine Anleitung findet sich dafür u.a. auf moz.com. Die angegebenen Rankingpositionen sind zwar nicht absolut zu sehen, da die Positionierung in den Suchergebnissen stark durch die personalisierte Suche beeinflusst wird und Sitelinks „mitgezählt“ werden, aber ich habe so die Möglichkeit, meine (not provided) Keywords wenigstens nach Position zu differenzieren. Dadurch kann ich nicht nur Veränderungen in Suchergebnissen überwachen (ohne auf externe Tools zurückgreifen müssen), sondern ich kann sogar mögliche Potentiale erkennen. Habe ich z.B. eine Seite auf einen Suchbegriff optimiert und bekomme ordentlich Traffic, liege aber häufig auf einer eher unteren Position auf den SERPs, mache ich irgendwas richtig. Vielleicht ist zu diesem Thema die Konkurrenz schwach und deshalb ist meine Seite trotz der unteren Platzierung interessant? Oder ist vielleicht mein Title und die Metadescription besonders gelungen? Hier lohnt es sich auf jeden Fall der Sache nachzugehen und mögliche thematische Potentiale oder Erfolgsrezepte für eine hohe CTR zu erkennen.

Zusammenfassend: Wenn man weiß, welche Zielseiten auf welche Keywords optimiert sind, kann man durch die Performance der Seite hinsichtlich Besuche über (not provided)-Keywords durchaus Aussagen über Erfolg oder Misserfolg der verwendeten Suchbegriffe treffen. Durch die Berücksichtigung der Rankingpositionen meiner (not provided)-Keywords ist es mir sogar möglich, eine qualitative Beurteilung zu erstellen, etwa hinsichtlich Darstellung in den SERPs und CTR.

Natürlich sind diese Informationen im Vergleich zu den „hard facts“, die Google Analytics früher zu Keywords lieferte, relativ schwammig. Wer genauere Zahlen möchte oder braucht, sollte hier (wie auch von Rand Fishkin vorgeschlagen) verstärkt auf Adwords, den Keywordstatistiken der Google Webmaster Tools oder andere Hilfsmittel setzen. Vielleicht sollte man sich aber auch mit den Gedanken anfreunden, dass die Zeit der auf Punkt und Beistrich überoptimierten Keywords vorbei ist. In einer Zeit, in der die personalisierte Suche, nicht zuletzt durch die Integration von Google+, immer größere Bedeutung gewinnt und daher einer Optimierung auf „neutrale User“ an Effekt verlieren wird, sollten vielleicht andere Zahlen und Kenngrößen zu Performancemessung von Seiten herangezogen werden. Hierzu möchte ich abschließend auf einen umfangreichen Artikel von Mario Hillmers verweisen, welcher hierzu einige Ansätze liefert.

Bei Google vorne sein – Teil 1: Was heißt das?

6. August 2009 | AutorIn:martin_zelewitz

Benötigt man irgendwelche Informationen, dann holt man sich diese meistens aus dem Internet. Dabei ist die Suchmaschine Google aus unserem täglichen Gebrauch gar nicht mehr wegzudenken. Sogar der Begriff etwas „googeln“ wurde 2004 in den Duden aufgenommen. Das Wort hat sich in unserem Sprachgebrauch schon so ausgebreitet, dass es nicht nur für die Google-Suchmaschine, sondern für jede Suche im Internet verwendet wird. Auch wenn dies den Google Betreibern nicht so gefällt.

Auf Platz 1 bei Google sein

Was bedeutet es eigentlich bei Google auf Platz eins der Suchergebnisse zu sein? Es gibt drei Möglichkeiten bei Google ganz Vorne gelistet zu werden. Am Beispiel Suche “Hotel Salzburg” möchte ich das illustrieren (siehe Grafik). Die erste Möglichkeit ist, in den Google Adwords Anzeigen an erster Stelle zu erscheinen. Ebenfalls kann man mittels Einträge in Google Maps ganz vorne gerankt werden und zu allerletzt in den organischen Suchergebnissen von Google & Co.

3 Möglichkeiten der Platzierung in den Google Suchergebnissen

Wie funktioniert Google?

Google folgt mithilfe eines sogenannten Webcrawler den gefundenen Links und versucht damit möglichst viele Seiten in den Suchindex aufzunehmen. Die jeweiligen Seiten werden dann nach Suchbegriffen und Schlüsselwörtern aufgegliedert. Ein Webcrawler ist ein Computerprogramm, das vor allem von Suchmaschinen verwendet wird. Es durchsucht automatisch das Internet und analysiert dabei die Webseiten. Die Suchergebnisse werden von Google nach der jeweiligen Relevanz aufgrund eines Algorithmus angeordnet. Hierfür werden eine Vielzahl von Faktoren berücksichtigt. Bei der Google-Optimierung versucht dahinter liegende Technik einer Homepage, Inhalte und Verlinkungen möglichst so abzustimmen, dass ein Position weit vorne auf den Suchergebnisseiten gelingt.

Universal Search

Universal Search (Blended Search) bedeutet, dass der User statt den reinen Textlinks, wie Google sie immer bevorzugt hat, nun auch Suchergebnisse in Form von Videos und Fotos erhält (siehe Screenshot zum Suchbegriff “Barack Obama”).

Google ist der Meinung, dass das Internet nicht aus einem Themenstrang, sondern aus sehr vielen verschiedenen Themen besteht. Daher werden mithilfe von Universal Search  zusätzlichen Themen, wie YouTube, Google News und Google Maps, in die Suchergebnisse mit eingebunden. Dadurch verringert sich der Anteil der textlichen Suchergebnisse und  die Ergebnisse der Suchanfrage rutschen immer weiter nach unten. Um sich seinen Platz ganz vorne zu sichern ist es wichtig auch bei den Suchergebnissen zu Bildern, Photos, Videos, etc. aufzuscheinen.

Vertical Creeps

Derzeit haben vor allem sehr trafficstarke Keywords einen hohen Anteil an Universal Search Elementen. Wir gehen davon aus, dass sich der Trend der Universal Search in Zukunft weiter verstärken wird.

Veröffentlicht in Aviseo |  1 Kommentar