ES

(not provided) bei 75% in Google Anayltics – Was nun?

25. September 2013 | AutorIn:gernot_schimek

Seit ziemlich genau zwei Jahren lässt sich in Google Analytics in den Keyword-Berichten ein Eintrag mit der Bezeichnung (not provided) finden, welcher alle Suchanfragen sammelt die über eine verschlüsselte Suche in Google abgesetzt worden sind (etwa durch in Google angemeldete Nutzer). Sehr zum Leidwesen vieler SEO nahm der Anteil der “verschluckten” Keywords stetig zu, bis Anfang September die Bombe einschlug: Laut notprovidedcount.com hat sich der Anteil von knapp 48% Ende August im Laufe des Monats September auf 75% erhöht – Tendenz steil nach oben. Google hat diesen Anstieg bestätigt, Grund dafür ist die flächendeckende Verschlüsselung der Suchanfragen aus Datenschutzgründen -  nicht zuletzt vor dem Hintergrund des PRISM-Skandales, wie von Searchengineland vermutet wird. Auch bei unseren Kunden konnten wir diesen Anstieg feststellen, hier ein Beispiel von einem Kunden aus dem Bereich Telekommunikation:

Starker Anstieg von (not provided): Besuche der organischen Suche (Blau) vs. Besuche mit (not provided)-Keywords

Konsequenz: Drei Viertel des organischen Traffics der Webseite geben keinerlei Informationen mehr über die betreffenden Keywords aus.

Viele SEOs stehen angesichts dieser Entwicklung vor einer schweren Krise, war doch die Auswertung der Keyword-Performance ein wesentlicher Teil des Controllings. Wenn also notprovidedcount.com hochrechnet, dass vor Ende dieses Jahres (not provided) einen Anteil von 100% erreichen wird, fallen die Reaktionen schon heftig aus. Gerade im englischsprachigen Raum wurden schon Boykottaufrufe gegen Google laut („Zeit um auf Bing zu wechseln!“) und selbst Rand Fishkin sagt in seiner Analyse zu diesem Thema:

„I think this is Google abusing their monopolistic position in the United States. Unfortunately, I don’t really see a way out of it. I don’t think marketers can make a strong enough case politically or to consumer groups to get this removed. Maybe the EU can eventually.“ (Rand Fishkin – When Keyword (not provided) is 100 Percent of Organic Referrals, What Should Marketers Do?)

Ich möchte an dieser Stelle kurz auf diese Reaktionen eingehen:

  1. In Amerika mag man vielleicht versucht sein Google komplett von seiner Seite zu verbannen (Bing liegt zwar weit hinter Google, hat aber mehr Marktanteile als in Europa), aber in (Mittel-)Europa ist das keine Option. Überhaupt: Aus unternehmerischer Sicht muss ich mich in dem Feld bewegen, wo meine Kunden sind, nicht in jenen, wo die Arbeitsbedingungen leichter sind. Perlentauchen kann ich schließlich auch nicht im Schwimmbad, auch wenn dort das Wasser vielleicht wärmer ist.
  2. Auch wenn Google in Europa kritisch beäugt wird – sowohl von Seiten der EU als auch auf nationaler Ebene – wird die Branche in diesem Fall keine Verbündeten hier finden. Im Anbetracht der Tatsache, dass Verschlüsselung – zumindest offiziell – aus Datenschutzgründen vorgenommen wird, wird die Öffentlichkeit keinen Grund dafür haben, sich in diesem Thema für die Interessen der SEOs zu engagieren. Die Frage „Soll Google mehr der von ihnen eingegeben Informationen an private Dritte übermitteln?“ wird allen berechtigten Begründungen zum Trotz von vielen Usern wohl negativ beantwortet werden.

Auch wenn viele Reaktionen vielleicht überzogen sind, hinterlässt der Anstieg von (not provided) eine spürbare Lücke bei den Controllingmöglichkeiten, die man als SEO hat. Allerdings kann man mit ein wenig Gespür und Geschick zwar die verlorenen Informationen zu den Keywords nicht 1-zu-1 ersetzen, aber trotzdem noch immer ganz gut den Erfolg seiner SEO-optimierten Webseiten mit Google Analytics einschätzen. Ich möchte hier einen möglichen Ansatz dafür vorstellen.

Trotz (not provided) möglich: Indirekte Erfolgsmessung der Keywords

Vorweg: Bedingung für eine indirekte Erfolgsmessung ist, dass man einen Überblick darüber hat, welche Seiten für welche Keywords optimiert sind bzw. für welche Suchanfragen die Seite Potential hat zu ranken (Brand-Begriffe, Long-Tail, usw.). Bei Seiten mit gutem SEO sollten diese Informationen vorhanden sein, bei neuen Seiten sollte man sich empirisch oder mit Hilfe von SEO-Tools einen Eindruck verschaffen. Sind diese Voraussetzungen erfüllt, kann man sich daran machen (not provided) zu „zerpflücken“. Denn obwohl (not provided) auf den ersten Blick stark aggregiert wirkt, kann man dennoch Ansätze zur Differenzierung des Traffic finden.

Interessant ist vor allem, wo mein Traffic von Google eigentlich bei mir ankommt. Wenn ich mir die Zielseiten der Keywords meines organischen Google-Traffics ansehe (etwa als sekundäre Dimension), kann ich schon sehr gut abschätzen, welche Suchbegriffe sich hier verbergen. Denn wenn eine Seite auf eine Begriffskombination optimiert ist und für diese in der Vergangenheit gut gerankt hat, tut sie es auch jetzt -  (not provided) ändert daran nichts. Natürlich erlaubt diese Betrachtung nur eine grobe Einschätzung des Erfolges der Webseite und verrät mir nicht mehr im Detail, welche expliziten Suchanfragen zu meinen Traffic führten, auch gewinne ich keinerlei Einblicke hinsichtlich Long-Tail mehr. Aber ich erkenne immer noch ob die Seite in der organischen Suche funktioniert oder nicht. Und da ich ja im Idealfall weiß, auf welche Begriffe die Seite optimiert wurde, kann ich so bei meinen Keywords gegensteuern.

Um den Erfolg einer Seite genauer beurteilen zu können, sollte natürlich immer die Rankingposition der jeweiligen Seite im Auge behalten werden. Diese Information lässt sich mit Hilfe eines benutzerdefinierten erweiterten Filter relativ leicht selbst in Google Analytics anzeigen, eine Anleitung findet sich dafür u.a. auf moz.com. Die angegebenen Rankingpositionen sind zwar nicht absolut zu sehen, da die Positionierung in den Suchergebnissen stark durch die personalisierte Suche beeinflusst wird und Sitelinks „mitgezählt“ werden, aber ich habe so die Möglichkeit, meine (not provided) Keywords wenigstens nach Position zu differenzieren. Dadurch kann ich nicht nur Veränderungen in Suchergebnissen überwachen (ohne auf externe Tools zurückgreifen müssen), sondern ich kann sogar mögliche Potentiale erkennen. Habe ich z.B. eine Seite auf einen Suchbegriff optimiert und bekomme ordentlich Traffic, liege aber häufig auf einer eher unteren Position auf den SERPs, mache ich irgendwas richtig. Vielleicht ist zu diesem Thema die Konkurrenz schwach und deshalb ist meine Seite trotz der unteren Platzierung interessant? Oder ist vielleicht mein Title und die Metadescription besonders gelungen? Hier lohnt es sich auf jeden Fall der Sache nachzugehen und mögliche thematische Potentiale oder Erfolgsrezepte für eine hohe CTR zu erkennen.

Zusammenfassend: Wenn man weiß, welche Zielseiten auf welche Keywords optimiert sind, kann man durch die Performance der Seite hinsichtlich Besuche über (not provided)-Keywords durchaus Aussagen über Erfolg oder Misserfolg der verwendeten Suchbegriffe treffen. Durch die Berücksichtigung der Rankingpositionen meiner (not provided)-Keywords ist es mir sogar möglich, eine qualitative Beurteilung zu erstellen, etwa hinsichtlich Darstellung in den SERPs und CTR.

Natürlich sind diese Informationen im Vergleich zu den „hard facts“, die Google Analytics früher zu Keywords lieferte, relativ schwammig. Wer genauere Zahlen möchte oder braucht, sollte hier (wie auch von Rand Fishkin vorgeschlagen) verstärkt auf Adwords, den Keywordstatistiken der Google Webmaster Tools oder andere Hilfsmittel setzen. Vielleicht sollte man sich aber auch mit den Gedanken anfreunden, dass die Zeit der auf Punkt und Beistrich überoptimierten Keywords vorbei ist. In einer Zeit, in der die personalisierte Suche, nicht zuletzt durch die Integration von Google+, immer größere Bedeutung gewinnt und daher einer Optimierung auf „neutrale User“ an Effekt verlieren wird, sollten vielleicht andere Zahlen und Kenngrößen zu Performancemessung von Seiten herangezogen werden. Hierzu möchte ich abschließend auf einen umfangreichen Artikel von Mario Hillmers verweisen, welcher hierzu einige Ansätze liefert.

Ein SEO Tool mit Biss: Screaming Frog SEO Spider

21. Juni 2013 | AutorIn:gernot_schimek

Ein Szenario das wohl jeder SEO kennt: Man bekommt die Aufgabe ein Webseite nach SEO-Gesichtspunkten zu analysieren und eine Onpage-Optimierung.

Viele Faktoren müssen dabei berücksichtigt werden:

  • Title und Metadescription,
  • korrekte HTTP-Header,
  • robots-Anweisungen,
  • sinnvoller Einsatz der Überschriften,
  • …die Liste ist lang.

Was bei kleineren Seiten noch (mühsam) durch manuellen Check jeder Unterseite erledigt werden kann, wird bei größeren Seiten schnell zur einer Herkulesaufgabe. Hier investiert man oft mehr Zeit als einen lieb ist oder gibt sich mit einer stichprobeartigen Durchsicht (nach Seitentypen gegliedert) zufrieden. Es gibt aber auch eine dritte Alternative: Der Einsatz eines SEO-Tools wie Screaming Frog SEO Spider.

Screaming Frog SEO Spider Logo

Dieses unglaublich nützliche und mächtige Programm kann einem in wenigen Minuten die Arbeit von Stunden abnehmen. Die Funktionsweise von SEO Spider ist dabei denkbar einfach: Das Programm crawlt die gewünschte URL, wobei es sich an die  in der robots.txt hinterlegten Anweisungen für den Googlebot hält. Dadurch muss man sich auch tatsächlich nur mit jenen Inhalten der Seite beschäftigen, welche auch Google gezeigt werden sollen. Bei Bedarf lassen sich in der robots.txt eigene Berechtigungen für dieses SEO Tool einrichten (SEO Spider hat seinen eigenen User-Agent) oder kann das Programm auch gleich angewiesen werden, alle Direktiven in der robots.txt zu ignorieren (dann wird die ganze Seite gecrawlt). Durch das Crawling werden sämtliche HTTP-Statuscodes ersichtlich (nützlich um Broken Links oder Redirects zu erkennen) und gleichzeitig auch die Anzahl der ein- und ausgehenden Links für jede URL erfasst, wodurch Schwächen in der internen Verlinkungen sofort verortet werden können.

SEO Spider Screenshot

Alle wichtigen SEO-Elemente könnten per Mausklick überprüft werden!

Neben diesen grundlegenden Informationen bietet das aufgeräumt wirkende Interface sofort via Tabs Zugriff auf weitere Informationen zu jeder Unterseite. Unter den Tabs “Page Title” und “Meta Description” kann etwa sofort eingesehen werden, welche Seiten einen Title bzw. eine Descritpion besitzen und falls vorhanden, welchen Text diese beinhalten und aus wievielen Zeichen dieser besteht.

Analog dazu existieren auch Tabellen für die SEO-relevanten H1 bzw. H2 Überschriften. Das Tool ermöglicht so binnen Minuten Verbesserungspotentiale bei diesen, für SEO so wichtigen, Stellschrauben zu erkennen. Ebenfalls wertvoll sind die unter dem Tab “Directives” zu Verfügung gestellten Informationen. Durch Filtern können sofort alle Seiten nach ihren robots Anweisungen (“index/noindex”, “follow/nofollow”, usw.) sortiert werden. Ebenfalls hier sind rel=”canonical” Anweisungen samt ihren Destinationen gelistet. Da sich diese Anweisungen massiv auf den Indezierungsstatus einer Webseite auswirken, ist die Möglichkeit einer schnellen und einfachen Überprüfung dieser bei jeder Onpage-Analyse unbezahlbar.

SEO Spider bietet darüber hinaus noch eine Vielzahl weiter Features, welche das Programm zu einem Allround-SEO-Tool machen. Eine Funktion ist aber wegen ihrer Nützlichkeit noch gesondert hervorzuheben: Das Custom Search Feature. Diese Funktion ermöglicht die freie Suche im HMTL-Code der Seiten. Mögliche Anwendungsfälle dafür sind etwa die Suche nach allen Seiten mit “noscript”-Anweisungen. Auch kann so schnell Überprüft werden ob auf allen oder bestimmten Seiten der Google Analytics Code mit dem richtigen Konto hinterlegt ist.

SEO Spider Custom Search Beispiel

Beispiel für eine Custom Search – Quelle: screamingfrog.co.uk

Im Resümee besticht Screaming Frog Seo Spider durch seine universellen Einsatzmöglichkeiten und die sehr gute Performance beim Crawling. Das Interface wirkt trotz der vielen Funktionen dieses SEO-Tools übersichtlich und zugänglich, dadurch benötigt das Programm nur eine geringe Einarbeitungszeit. SEO Spider steht in der kostenlosen Lite-Version direkt von der Screaming Frog-Homepage zum Download zur Verfügung. Die Lite-Version kann zeitlich unbegrenzt genutzt werden, hat allerdings einige empfindliche Restriktionen. Es könnten damit nur 500 URIs auf einmal gecrawlt werden und einige Features, wie etwa die freie Suche im Sourcecode, sind deaktiviert. Durch den Erwerb einer gültigen Lizenz (99 britische Pfund pro Jahr), steht das Programm zur unbeschränkten Nutzung frei. In Anbetracht der Möglichkeiten des Programmes und der damit einhergehenden Zeitersparnis eine lohnenswerte Investition.

Fazit: SEO Spider ist jedem der sich mit Onpage-Optimierung beschäftigt zu empfehlen.

Hompage von Screaming Frog SEO Spider: http://www.screamingfrog.co.uk/seo-spider/

Negative Keywords in AdWords

4. Juni 2013 | AutorIn:michael_wanger

Der Einsatz von negativen Keyword Listen in Ihrem Google AdWords Konto ist einer der gewichtigsten Bestandteile bei der Kosten- und Qualitätsfaktoroptimierung. Negative bzw. ausschließende Keywords verhindern die Schaltung Ihrer Anzeige und helfen somit unnötige Klicks zu vermeiden und in Folge die Kosten zu senken.

Man stelle sich folgendes Szenario vor: Ein professioneller Masseur möchte durch AdWords neue Kunden generieren. Nach Eröffnung des Kontos erstellt der Masseur seine Kampagnen und pflegt seine ersten Keywords ein. Sinnvollerweise beinhaltet sein Set unter anderem das Keyword „Massage“ im Broad Match. Nach einiger Zeit möchte unser Protagonist nun wissen, mit welchen Suchanfragen er denn gefunden wurde. Nach der Auswertung der Suchanfragen wird ihm bewusst, dass 50% der Klicks für ihn nutzlos waren, da es sich um zur Gänze unpassende Suchanfragen handelte. Der Masseur hat somit einen Teil seines Budgets für nichts und wieder nichts eingesetzt.

Um ein solches Szenario zu vermeiden, bieten sich negative (ausschließende) Keywords an. Die Recherche nach Suchbegriffen, bei welchen man nicht aufscheinen will, ist für den Kampagnenerfolg nicht nur wichtig, sondern essentiell.

Negative Keywordlisten können in AdWords sehr simpel erstellt werden. Gehen Sie hierfür einfach auf „Gemeinsam genutzte Bibliothek“, dann auf den Menüpunkt „Ausschließende Keywords für Kampagnen“ und dann auf den Tab „Neue Liste mit ausschließenden Keywords“. Die folgenden Punkte sollten dabei bedacht werden.

Für unseren Masseur könnte die Liste wie folgt aussehen:

Negative Keywords - Liste

1.)    Keywordrecherche: Eruieren Sie, bei welchen Suchanfragen keine Ausstrahlung erfolgen soll. Hierfür können für Sie logische Begriffe verwendet werden. Handelt Ihr Unternehmen beispielsweise mit hochwertigen Waren, so bietet es sich an, Begriffe wie günstig, kostenlos oder gebraucht auszuschließen. Wichtig ist es, dass hierbei etwaige falschschreibweisen oder Umlaute beachtet werden. Nutzen Sie auch die tatsächlichen Suchanfragen, jene Suchbegriffe mit welchen Sie tatsächlich gefunden wurden.

2.)    Clustern der negativen Keywords: Clustern Sie Ihre Keywords den vorhandenen Kampagnen entsprechend. Beachten Sie ob ein negativer Begriff für Kampagne A nicht doch ein positiver für Kampagne B sein kann. Am effizientesten ist es, wenn Sie für jede Kampagne eine eigene Liste erstellen.

3.)    Keywordoptionen: Es ist davon abzuraten weitgehend passende Keywords zu verwenden, da diese auch zum Blockieren von passenden Suchanfragen führen können. Die Keywords sollten somit entweder Exakt oder als Wortgruppe ausgewählt werden.

4.)    Keywordpflege: Auch negative Keywords müssen gepflegt werden. Kontrollieren Sie regelmäßig ob es neue Keywords für die Listen gibt oder ob ein negatives Keyword nun doch positiv ist.

Neue Klicks werden durch negative Keywords zwar nicht generiert, jedoch sorgen sie dafür, dass Sie einerseits Ihr Budget besser nutzen und andererseits Ausstrahlungen bei unpassenden Suchanfragen vermeiden können.

Google+ App Activities in Google Suche

8. Mai 2013 | AutorIn:lukas_peherstorfer

Google hat vor einigen Tagen eine Neuigkeit in der Google Suche angekündigt. In Zukunft werden App-Aktivitäten aus dem Google+ Netzwerk verstärkt in der Google Suche angezeigt.
App-Akivitäten in den Google Suchergebnissen
›› weiterlesen

Schlagwörter: , , ,

Neue Features in der Google Suche: Teilen von Links in der SERP

25. April 2013 | AutorIn:lukas_peherstorfer

Google bietet ab sofort ein neues Feature für die Websuche an. Rechts neben der jeweils angezeigten URL hat man die Möglichkeit mit Klick auf den kleinen Pfeil ein Dropdown-Menü zu öffnen.
Dropdown-Menü in der Google Suche
›› weiterlesen

Veröffentlicht in Allgemein |  0 Kommentare
Schlagwörter: ,