ES

Infinite Scroll – Google gibt Empfehlungen für die SEO-freundliche Umsetzung

11. März 2014 | AutorIn:gernot_schimek

Das Infinite Scroll-Design erfreut sich bei Webdesignern großer Beliebtheit. Kaum verwunderlich, schließlich sieht es nicht nur schick aus, sondern bietet auch einige wesentliche Vorteile:

  • Das ständige Nachladen von Items beim Scrolling nach unten kommt dem natürlichen Leseverhalten sehr nahe und spricht User an
  • Zusätzliche Elemente sind ohne Klicks verfügbar, wodurch eine mögliche Barriere für den User eliminiert wird. Auf mobilen Geräten verbessert sich dadurch die Usability wesentlich.
  • Jeder User ist in der Lage intuitiv die Seite richtig zu bedienen, denn das Rollen des Mausrades, die Bedingung der Scrollingleiste oder das „Wischen“ auf mobilen Geräten haben die meisten Menschen bei der Interaktion zwischen Mensch und Maschine verinnerlicht.

Aber natürlich hat diese Methode auch ihre Tücken, besonders aus SEO-Sicht. Denn auch wenn für den User eine einzige Seite – und damit auch nur eine URL – durchaus ausreichend ist, für ein erfolgreiches Ranking ist dieser Umstand eher hinderlich. Denn eine Seite heißt oft: Nur eine einzige Ranking Chance pro Suchanfrage. Noch wichtiger als die Anzahl der ausgewiesenen Seiten ist jedoch der Aspekt der Auslesbarkeit. Da Infinite Scroll das Nachladen von Elementen durch Javascript auslöst und Google in der Regel Javascript nicht ausführt oder Userverhalten auf diesen Niveau emuliert, sind viele Inhalte vor den Suchmaschinen „versteckt“.

Um auch bei der organischen Suche mit Infinite Scroll Erfolg zu haben, ist es daher unerlässlich, einige zusätzliche Schritte zu befolgen. Mitte Februar hat dazu Google in einem Beitrag im Webmaster Central Blog eindeutige Empfehlungen ausgesprochen, mit denen das notwendige Fundament für ein erfolgreiches Ranking geschaffen werden kann.
Die Grundidee: Die Inhalte der Infinite Scroll Seite werden auf einzelne Seiten verteilt, welche bei deaktivierten Javascript den Zugang zu den einzelnen Elementen ermöglichen. Die einzelnen Seiten sollten vollwertige URLs besitzen (Indexnummern als Parameter sind möglich, z.B. fun-items?page=3) und durch den Einsatz von rel=prev /rel=next im-Bereich der Seiten verkettet werden

Schematische des suchmaschinenfreundlichen Aufbaus

Schematische Darstellung des suchmaschinenfreundlichen Aufbaus (Quelle: Google Webmaster Central)

Bei der Gruppierung der einzelnen Elemente (Einträge, Blogartikel, usw.) auf spezifische Unterseiten sollte man auf einige Dinge achten:
Die Seiten sollten inhaltlich konsistent bleiben und sich nicht überschneiden, um Duplicate Content zu vermeiden. Eine im diesem Sinne mögliche Gruppierung wäre z.B. Elemente 1- 6 auf der ersten Seite, Elemente 7 – 12 auf der zweiten Seite, usw. zu platzieren und diese Zuordnung beizubehalten. Daher sollte man auch von der Verwendung von Parametern auf Zeitbasis oder anderen nicht-eindeutigen Werten Abstand nehmen. Wie viele Elemente man pro Seite darstellt, ist aber letztendlich eine Frage der Darstellbarkeit (ein User der direkt auf die Seite kommt, sollte schnell finden was er sucht). Zudem sollte auf sinnvolle Ladezeiten geachtet werden.

Elemente sollten nur auf einer Seite vorhanden sein!

Elemente sollten nur auf einer Seite vorhanden sein! (Quelle: Google Webmaster Central)

Zusätzlich wird die Verwendung der pushState-Methode empfohlen. Dadurch wird in den Browsern die URL in der Adressleiste beim Scrolling nach unten entsprechend aktualisiert ohne dabei einen Reload zu erzeugen (sehr schön sichtbar in diesem Beispiel für Infinite Scrolling).

Durch diese einfachen Schritte bleibt die Usability von Infinite Scroll vollständig erhalten, bei einer gleichzeitigen Gewährleistung der Crawlbarkeit durch Google und andere Suchmaschinen. Anhand des Beispiels von Infinite Scroll zeigt sich deutlich, dass SEO-Fragen schon frühzeitig bei der Umsetzung neuer Webdesigns berücksichtigt werden sollten, um negative Überraschungen zu vermeiden.

Content-Diebstahl: Google führt den Scraper Report ein

28. Februar 2014 | AutorIn:martin_zelewitz

Längst haben wir uns daran gewöhnt, dass viele Webseiten keinen eigenen Content haben. Sie crawlen fremden Content. Manchmal entsteht dadurch durchaus Mehrwert, wenn der gecrawlte Content gut aggregiert bzw. portioniert wird. Viel häufiger jedoch wird einfach der fremde Content in langen Auszügen oder überhaupt 1:1 veröffentlicht.
Und zu allem Überfluss kommt es immer wieder vor, dass man als Webmaster miterleben muss, wie diese Fremdseiten für den eigenen Content bei Google besser ranken als die eigene Seite.

Dem will Google jetzt Abhilfe schaffen und möchte den Kopierern an den Kragen. Matt Cutts hat dazu gestern den Scraper Report angekündigt:

Unter http:/bit.ly/scraperspamreport bietet Google jetzt das entsprechende Formular an:

google report gegen scraping / content-diebstahl

In 3 Felder füllt man aus

  • wo der ursprüngliche Content veröffentlicht wurde
  • wo sich der kopierte / gestohlene Content befindet
  • mit welchen Google-Suchen dieser rankt

So weit, so gut erstmal. Man darf gespannt sein, wie gut das Tool in der Praxis funktioniert!

 

(not provided) bei 75% in Google Anayltics – Was nun?

25. September 2013 | AutorIn:gernot_schimek

Seit ziemlich genau zwei Jahren lässt sich in Google Analytics in den Keyword-Berichten ein Eintrag mit der Bezeichnung (not provided) finden, welcher alle Suchanfragen sammelt die über eine verschlüsselte Suche in Google abgesetzt worden sind (etwa durch in Google angemeldete Nutzer). Sehr zum Leidwesen vieler SEO nahm der Anteil der “verschluckten” Keywords stetig zu, bis Anfang September die Bombe einschlug: Laut notprovidedcount.com hat sich der Anteil von knapp 48% Ende August im Laufe des Monats September auf 75% erhöht – Tendenz steil nach oben. Google hat diesen Anstieg bestätigt, Grund dafür ist die flächendeckende Verschlüsselung der Suchanfragen aus Datenschutzgründen -  nicht zuletzt vor dem Hintergrund des PRISM-Skandales, wie von Searchengineland vermutet wird. Auch bei unseren Kunden konnten wir diesen Anstieg feststellen, hier ein Beispiel von einem Kunden aus dem Bereich Telekommunikation:

Starker Anstieg von (not provided): Besuche der organischen Suche (Blau) vs. Besuche mit (not provided)-Keywords

Konsequenz: Drei Viertel des organischen Traffics der Webseite geben keinerlei Informationen mehr über die betreffenden Keywords aus.

Viele SEOs stehen angesichts dieser Entwicklung vor einer schweren Krise, war doch die Auswertung der Keyword-Performance ein wesentlicher Teil des Controllings. Wenn also notprovidedcount.com hochrechnet, dass vor Ende dieses Jahres (not provided) einen Anteil von 100% erreichen wird, fallen die Reaktionen schon heftig aus. Gerade im englischsprachigen Raum wurden schon Boykottaufrufe gegen Google laut („Zeit um auf Bing zu wechseln!“) und selbst Rand Fishkin sagt in seiner Analyse zu diesem Thema:

„I think this is Google abusing their monopolistic position in the United States. Unfortunately, I don’t really see a way out of it. I don’t think marketers can make a strong enough case politically or to consumer groups to get this removed. Maybe the EU can eventually.“ (Rand Fishkin – When Keyword (not provided) is 100 Percent of Organic Referrals, What Should Marketers Do?)

Ich möchte an dieser Stelle kurz auf diese Reaktionen eingehen:

  1. In Amerika mag man vielleicht versucht sein Google komplett von seiner Seite zu verbannen (Bing liegt zwar weit hinter Google, hat aber mehr Marktanteile als in Europa), aber in (Mittel-)Europa ist das keine Option. Überhaupt: Aus unternehmerischer Sicht muss ich mich in dem Feld bewegen, wo meine Kunden sind, nicht in jenen, wo die Arbeitsbedingungen leichter sind. Perlentauchen kann ich schließlich auch nicht im Schwimmbad, auch wenn dort das Wasser vielleicht wärmer ist.
  2. Auch wenn Google in Europa kritisch beäugt wird – sowohl von Seiten der EU als auch auf nationaler Ebene – wird die Branche in diesem Fall keine Verbündeten hier finden. Im Anbetracht der Tatsache, dass Verschlüsselung – zumindest offiziell – aus Datenschutzgründen vorgenommen wird, wird die Öffentlichkeit keinen Grund dafür haben, sich in diesem Thema für die Interessen der SEOs zu engagieren. Die Frage „Soll Google mehr der von ihnen eingegeben Informationen an private Dritte übermitteln?“ wird allen berechtigten Begründungen zum Trotz von vielen Usern wohl negativ beantwortet werden.

Auch wenn viele Reaktionen vielleicht überzogen sind, hinterlässt der Anstieg von (not provided) eine spürbare Lücke bei den Controllingmöglichkeiten, die man als SEO hat. Allerdings kann man mit ein wenig Gespür und Geschick zwar die verlorenen Informationen zu den Keywords nicht 1-zu-1 ersetzen, aber trotzdem noch immer ganz gut den Erfolg seiner SEO-optimierten Webseiten mit Google Analytics einschätzen. Ich möchte hier einen möglichen Ansatz dafür vorstellen.

Trotz (not provided) möglich: Indirekte Erfolgsmessung der Keywords

Vorweg: Bedingung für eine indirekte Erfolgsmessung ist, dass man einen Überblick darüber hat, welche Seiten für welche Keywords optimiert sind bzw. für welche Suchanfragen die Seite Potential hat zu ranken (Brand-Begriffe, Long-Tail, usw.). Bei Seiten mit gutem SEO sollten diese Informationen vorhanden sein, bei neuen Seiten sollte man sich empirisch oder mit Hilfe von SEO-Tools einen Eindruck verschaffen. Sind diese Voraussetzungen erfüllt, kann man sich daran machen (not provided) zu „zerpflücken“. Denn obwohl (not provided) auf den ersten Blick stark aggregiert wirkt, kann man dennoch Ansätze zur Differenzierung des Traffic finden.

Interessant ist vor allem, wo mein Traffic von Google eigentlich bei mir ankommt. Wenn ich mir die Zielseiten der Keywords meines organischen Google-Traffics ansehe (etwa als sekundäre Dimension), kann ich schon sehr gut abschätzen, welche Suchbegriffe sich hier verbergen. Denn wenn eine Seite auf eine Begriffskombination optimiert ist und für diese in der Vergangenheit gut gerankt hat, tut sie es auch jetzt -  (not provided) ändert daran nichts. Natürlich erlaubt diese Betrachtung nur eine grobe Einschätzung des Erfolges der Webseite und verrät mir nicht mehr im Detail, welche expliziten Suchanfragen zu meinen Traffic führten, auch gewinne ich keinerlei Einblicke hinsichtlich Long-Tail mehr. Aber ich erkenne immer noch ob die Seite in der organischen Suche funktioniert oder nicht. Und da ich ja im Idealfall weiß, auf welche Begriffe die Seite optimiert wurde, kann ich so bei meinen Keywords gegensteuern.

Um den Erfolg einer Seite genauer beurteilen zu können, sollte natürlich immer die Rankingposition der jeweiligen Seite im Auge behalten werden. Diese Information lässt sich mit Hilfe eines benutzerdefinierten erweiterten Filter relativ leicht selbst in Google Analytics anzeigen, eine Anleitung findet sich dafür u.a. auf moz.com. Die angegebenen Rankingpositionen sind zwar nicht absolut zu sehen, da die Positionierung in den Suchergebnissen stark durch die personalisierte Suche beeinflusst wird und Sitelinks „mitgezählt“ werden, aber ich habe so die Möglichkeit, meine (not provided) Keywords wenigstens nach Position zu differenzieren. Dadurch kann ich nicht nur Veränderungen in Suchergebnissen überwachen (ohne auf externe Tools zurückgreifen müssen), sondern ich kann sogar mögliche Potentiale erkennen. Habe ich z.B. eine Seite auf einen Suchbegriff optimiert und bekomme ordentlich Traffic, liege aber häufig auf einer eher unteren Position auf den SERPs, mache ich irgendwas richtig. Vielleicht ist zu diesem Thema die Konkurrenz schwach und deshalb ist meine Seite trotz der unteren Platzierung interessant? Oder ist vielleicht mein Title und die Metadescription besonders gelungen? Hier lohnt es sich auf jeden Fall der Sache nachzugehen und mögliche thematische Potentiale oder Erfolgsrezepte für eine hohe CTR zu erkennen.

Zusammenfassend: Wenn man weiß, welche Zielseiten auf welche Keywords optimiert sind, kann man durch die Performance der Seite hinsichtlich Besuche über (not provided)-Keywords durchaus Aussagen über Erfolg oder Misserfolg der verwendeten Suchbegriffe treffen. Durch die Berücksichtigung der Rankingpositionen meiner (not provided)-Keywords ist es mir sogar möglich, eine qualitative Beurteilung zu erstellen, etwa hinsichtlich Darstellung in den SERPs und CTR.

Natürlich sind diese Informationen im Vergleich zu den „hard facts“, die Google Analytics früher zu Keywords lieferte, relativ schwammig. Wer genauere Zahlen möchte oder braucht, sollte hier (wie auch von Rand Fishkin vorgeschlagen) verstärkt auf Adwords, den Keywordstatistiken der Google Webmaster Tools oder andere Hilfsmittel setzen. Vielleicht sollte man sich aber auch mit den Gedanken anfreunden, dass die Zeit der auf Punkt und Beistrich überoptimierten Keywords vorbei ist. In einer Zeit, in der die personalisierte Suche, nicht zuletzt durch die Integration von Google+, immer größere Bedeutung gewinnt und daher einer Optimierung auf „neutrale User“ an Effekt verlieren wird, sollten vielleicht andere Zahlen und Kenngrößen zu Performancemessung von Seiten herangezogen werden. Hierzu möchte ich abschließend auf einen umfangreichen Artikel von Mario Hillmers verweisen, welcher hierzu einige Ansätze liefert.

Ein SEO Tool mit Biss: Screaming Frog SEO Spider

21. Juni 2013 | AutorIn:gernot_schimek

Ein Szenario das wohl jeder SEO kennt: Man bekommt die Aufgabe ein Webseite nach SEO-Gesichtspunkten zu analysieren und eine Onpage-Optimierung.

Viele Faktoren müssen dabei berücksichtigt werden:

  • Title und Metadescription,
  • korrekte HTTP-Header,
  • robots-Anweisungen,
  • sinnvoller Einsatz der Überschriften,
  • …die Liste ist lang.

Was bei kleineren Seiten noch (mühsam) durch manuellen Check jeder Unterseite erledigt werden kann, wird bei größeren Seiten schnell zur einer Herkulesaufgabe. Hier investiert man oft mehr Zeit als einen lieb ist oder gibt sich mit einer stichprobeartigen Durchsicht (nach Seitentypen gegliedert) zufrieden. Es gibt aber auch eine dritte Alternative: Der Einsatz eines SEO-Tools wie Screaming Frog SEO Spider.

Screaming Frog SEO Spider Logo

Dieses unglaublich nützliche und mächtige Programm kann einem in wenigen Minuten die Arbeit von Stunden abnehmen. Die Funktionsweise von SEO Spider ist dabei denkbar einfach: Das Programm crawlt die gewünschte URL, wobei es sich an die  in der robots.txt hinterlegten Anweisungen für den Googlebot hält. Dadurch muss man sich auch tatsächlich nur mit jenen Inhalten der Seite beschäftigen, welche auch Google gezeigt werden sollen. Bei Bedarf lassen sich in der robots.txt eigene Berechtigungen für dieses SEO Tool einrichten (SEO Spider hat seinen eigenen User-Agent) oder kann das Programm auch gleich angewiesen werden, alle Direktiven in der robots.txt zu ignorieren (dann wird die ganze Seite gecrawlt). Durch das Crawling werden sämtliche HTTP-Statuscodes ersichtlich (nützlich um Broken Links oder Redirects zu erkennen) und gleichzeitig auch die Anzahl der ein- und ausgehenden Links für jede URL erfasst, wodurch Schwächen in der internen Verlinkungen sofort verortet werden können.

SEO Spider Screenshot

Alle wichtigen SEO-Elemente könnten per Mausklick überprüft werden!

Neben diesen grundlegenden Informationen bietet das aufgeräumt wirkende Interface sofort via Tabs Zugriff auf weitere Informationen zu jeder Unterseite. Unter den Tabs “Page Title” und “Meta Description” kann etwa sofort eingesehen werden, welche Seiten einen Title bzw. eine Descritpion besitzen und falls vorhanden, welchen Text diese beinhalten und aus wievielen Zeichen dieser besteht.

Analog dazu existieren auch Tabellen für die SEO-relevanten H1 bzw. H2 Überschriften. Das Tool ermöglicht so binnen Minuten Verbesserungspotentiale bei diesen, für SEO so wichtigen, Stellschrauben zu erkennen. Ebenfalls wertvoll sind die unter dem Tab “Directives” zu Verfügung gestellten Informationen. Durch Filtern können sofort alle Seiten nach ihren robots Anweisungen (“index/noindex”, “follow/nofollow”, usw.) sortiert werden. Ebenfalls hier sind rel=”canonical” Anweisungen samt ihren Destinationen gelistet. Da sich diese Anweisungen massiv auf den Indezierungsstatus einer Webseite auswirken, ist die Möglichkeit einer schnellen und einfachen Überprüfung dieser bei jeder Onpage-Analyse unbezahlbar.

SEO Spider bietet darüber hinaus noch eine Vielzahl weiter Features, welche das Programm zu einem Allround-SEO-Tool machen. Eine Funktion ist aber wegen ihrer Nützlichkeit noch gesondert hervorzuheben: Das Custom Search Feature. Diese Funktion ermöglicht die freie Suche im HMTL-Code der Seiten. Mögliche Anwendungsfälle dafür sind etwa die Suche nach allen Seiten mit “noscript”-Anweisungen. Auch kann so schnell Überprüft werden ob auf allen oder bestimmten Seiten der Google Analytics Code mit dem richtigen Konto hinterlegt ist.

SEO Spider Custom Search Beispiel

Beispiel für eine Custom Search – Quelle: screamingfrog.co.uk

Im Resümee besticht Screaming Frog Seo Spider durch seine universellen Einsatzmöglichkeiten und die sehr gute Performance beim Crawling. Das Interface wirkt trotz der vielen Funktionen dieses SEO-Tools übersichtlich und zugänglich, dadurch benötigt das Programm nur eine geringe Einarbeitungszeit. SEO Spider steht in der kostenlosen Lite-Version direkt von der Screaming Frog-Homepage zum Download zur Verfügung. Die Lite-Version kann zeitlich unbegrenzt genutzt werden, hat allerdings einige empfindliche Restriktionen. Es könnten damit nur 500 URIs auf einmal gecrawlt werden und einige Features, wie etwa die freie Suche im Sourcecode, sind deaktiviert. Durch den Erwerb einer gültigen Lizenz (99 britische Pfund pro Jahr), steht das Programm zur unbeschränkten Nutzung frei. In Anbetracht der Möglichkeiten des Programmes und der damit einhergehenden Zeitersparnis eine lohnenswerte Investition.

Fazit: SEO Spider ist jedem der sich mit Onpage-Optimierung beschäftigt zu empfehlen.

Hompage von Screaming Frog SEO Spider: http://www.screamingfrog.co.uk/seo-spider/

Google Places – Was beim Anlegen wichtig ist und wie Sie Ihren Eintrag claimen können

12. Juni 2013 | AutorIn:michael_wanger

Jede fünfte Suchanfrage bei Google hat bereits einen lokalen Bezug. Dieser Wert alleine sollte Firmen bereits zu denken geben, welche Bedeutung Google Places / Local für den unternehmerischen Erfolg hat.

Häufig ist es jedoch so, dass über ein Unternehmen bereits ein automatisch von Google erstellter Eintrag besteht. In diesen Fällen ist es wichtig, diesen Eintrag zu “claimen” und so die technische Kontrolle über den Eintrag zu bekomen.

Nachfolgend erläutern wir welche Schritte beim Claimen eines Eintrags zu beachten sind.

1. Übernehmen von bestehenden Einträgen: der einfache Fall

Sofern alles glatt läuft, reicht ein simpler Klick auf den bestehenden Eintrag um diesen zu aktualisieren. Durch Eingabe der Telefonnummer gelangt man zum Änderungsscreen. Hier kann der bestehende Eintrag entweder überarbeitet oder einen neuen Eintrag hinzufügen:

Places Eintrag ändern

Sobald die Änderungen durchgeführt wurden, kann der Eintrag wieder gespeichert werden. Leider läuft es nicht immer so reibungslos, wie in unserem Beispiel. Manchmal kann das Ändern eines Eintrags auch zu erheblichen Schwierigkeiten führen.

2. Übernehmen von bestehenden Einträgen: der scheinbar unmögliche Fall

Häufig lässt Google jedoch die Bearbeitung nicht zu: Wenn man so wie unter 1. beschrieben vorgeht, wird der bestehende Eintrag nicht gefunden. Man könnte somit höchstens einen zusätzlichen neuen Eintrag anlegen. Allerdings müsste man dann mit der unschönen Situation leben, dass zwei Einträge parallel zueinander existieren. Noch dazu könnte der ursprünglich automatisch erstellte nach wie vor nicht gewartet und gepflegt werden.

Im folgenden Workaround zeigen wir, wie solche Einträge trotzdem übernommen werden können:

. Als konkretes Beispiel für ein solches Szenario dient uns der Friseur „Edinger Christian h. schnitt“.

Google Places Eintrag

Der Friseur ist mit einem Eintrag auf Maps gelistet, überprüft man hierbei allerdings den Places Eintrag, wird schnell klar, dass für die angegeben Telefonnummer kein Eintrag vorhanden ist.

Google Places Eintrag Telefonnummer

Nach Eingabe der Rufnummer gibt mir Google unmissverständlich zu verstehen, dass es zu dieser Nummer noch keine Unternehmensadresse gibt.

Google Places Eintrag Formular

Es sieht nun also so aus, dass der Friseur zwar auf Maps eingetragen ist, er diesen Eintrag aber nicht selbst verwalten geschweigen denn ändern kann. Genau hier kommt das Claimen eines Eintrag zu tragen. Um Ihren Eintrag schnell und einfach für sich zu beanspruchen folgen Sie einfach den nachfolgenden Schritten:

Rufen Sie auf Google Maps Ihr Unternehmen auf,  in unserem Fall Edinger Christian h. schnitt:

maps-eintrag-edinger-christian-hschnitt

Wählen Sie den Eintrag aus und klicken Sie auf Details bearbeiten. Anschließend gelangen Sie auf das Verwaltungsformular des Eintrags:

Google Places Eintrag Claimen

Anschließend klicken Sie auf „Verwalten Sie Ihre Seite“ und schon können Sie Ihre Unternehmensinformationen bearbeiten

Schlagwörter: ,