Not Provided mit CSS & Javascript entschlüsseln

Erfahren sie, wie sie trotz Not Provided die meisten der Suchbegriffe, mit denen Nutzer Ihrer Seiten besuchen über CSS & Javascript entschlüsseln können und so in Google Analytics wieder reportet bekommen.

Not Provided brach wie ein Damoklesschwert über die SEO-Branche ein. Google rollte im September die verschlüsselte Suche aus. Die Folge, zwischen 70% und 95% aller Suchzugriffe, die über die organische Suche kommen werden nicht mehr in Google Analytics mit der eigentlichen Sucheingabe ausgezeichnet, sondern landen in einen Topf mit der Benamung (not provided).

Not Provided AnalysisSeither versuchen sich alle möglichen SEOler und Analysten an Lösungen und Workarounds und selbst Google geht auf die SEOler und Administratoren zu. So werden mit dem Jahreswechsel die Suchanfragedaten in Google Webmaster Tools „genauer“ reportet. Andere versuchen sich an Auswertungen mit Google AdWords Daten. Wieder andere bieten Reverse Engineering an. Aber alles im allen sind die Lösungen zu Not Provided mehr als unbefriedigend.

Der Nachteil bei all diesen Lösungen ist, dass sich eigentliche Leistungsdaten wie Bouncerate, Leads, Sales und Ziele nicht mehr auf einzelne Suchbegriffe oder Suchintensionen zurückführen lassen. Diese Daten können nur noch URL (also Content) bezogen verwendet werden, was somit eine wirklich gute Seitenoptimierung auf Suchintension und Zielerreichung deutlich erschwert.

Hier aber nun die Beschreibung einer Lösung, mit dem sie Not Provided Traffic entschlüsseln können. Bei der Lösung wird ein Schwäche der Browser in im CSS / Javascript Handling ausgenutzt.

Weiterlesen «Not Provided mit CSS & Javascript entschlüsseln»

Effecitve Way Blocking Spambot, Scraper, SEO Tools & Bad Bots

Besitzt man eine gut sichtbare Webseite, so dauert es nicht lange, bis die ersten Internetnutzer versuchen Webinhalte Ihrer Seite zu analysieren oder gar herunterzuladen. Auch SEOler nutzen neben OnPage and OnSite Tools Linkdatenbanken wie Majestic SEO, ahrefs, OpenSiteExplorer, Sistrix oder Searchmetrics um Backlink Profile gutrankender Webseite ausgespäht und zu analysiert.

blocking bot via htaccess

Mit dem folgenden htaccess Eintrag kann man effektiv Spambots, Scraper, SEO Tools und Bad Bots blockieren. Diese erhalten soweit Sie mit der standard User Agent Kennung arbeiten keinen Zugriff auf den Webserver.

Auch Tools wie Xenu oder SEO Screaming Frog, aber SEOKlicksxovi und andere können bei Standardeinstellung die Seite mit diesem htaccess-Eintrag nicht mehr crawlen.

Downloader wie HTTrack, Download Demon oder Scraping Scripte wie Python-Scripte können nicht mehr auf die Seite zugreifen und nicht korrekt arbeiten.

Weiterlesen «Effecitve Way Blocking Spambot, Scraper, SEO Tools & Bad Bots»

SEO Rankings Tracken – neue elegante Methode in Google Analytics

Zwar gebe ich nicht wirklich viel auf das Messen der SEO Positionen zu Suchbegriffen, aber natürlich ist es schön zu sehen, wenn die Seiten, für die man sich einsetzt, auch Top Positionen im organischen Index erreichen.

Tracking SEO Ranks with Google Analytics

Vor längerer Zeit führte Google den Click-Parameter ein. Dieser „cd“ Parameter enthält die Position, auf der eine Seite beim Klicken des organischen Ergebnisses in der Suche in diesem Moment rankte. Da der CD-Parameter auch im Referrer der eigenen Seite vorhanden ist, kann man diesen einfach Auslesen. Lange Zeit gab es hierfür ein spezifisches Google Analytics Filter Profil, mit dem die Position und das Keyword ausgelesen werden konnte. Damit wurden die Ranking-Informationen in Google Analytics verfügbar. Eine vernünftige Auswertung konnte man jedoch nur über die Google API mit Hilfe von Scripten und Aggregationen machen. Hier nun eine komfortablere Lösung:

Weiterlesen «SEO Rankings Tracken – neue elegante Methode in Google Analytics»

Meta Description – Wie Sie die Klickrate steigern!

Meta Description  – Wie Sie die Klickrate steigern

Die Meta Description ist häufig ein vernachlässigtes Element der Suchmaschinenoptimierung. Häufiger Grund dafür ist, dass diese keinen unmittelbaren Einfluss auf das Ranking in den Suchmaschinenergebnissen nimmt und daher von vielen SEO’s vernachlässigt oder stiefmütterlich behandelt wird.

click through rate catch emDie Meta Description wird nicht nur im Snippet des organischen Index angezeigt. Auch die sozialen Netzwerke wie Facebook, Google+, Social  Bookmarking Dienste, etc. greifen zunächst auf die Meta Description als Standardtext zurück, solange keine Open Graph Daten definiert wurden. Damit wird klar, welche Sichtbarkeit diese Beschreibung  erreichen kann. Sie beeinflusst denjenigen, der sie liest, macht neugierig und animiert letztendlich zum Klicken. Aber wie formuliert man einen solchen beschreibenden Text richtig und wie kann man zum Beispiel durch dessen Veränderung die Klickrate erhöhen?

Man muss nicht einmal eine Top Position auf der ersten Seite von Google erreichen, um qualitativ hochwertigeren Traffic zu erlangen. Zwar schwankt die CTR stark zwischen 1% und 30%, aber mit abnehmender Position sinkt auch der Anteil an sogenannten Clickfrauds im organischen Index. Das heißt, die eigentliche Qualität der Besuche erhöht sich, da die Leute bewusster auf das Ergebnis klicken. Betrachtet man die Bounce Rate von verschiedenen Positionen stellt man fest, dass sich diese pro Position verringert.

Weiterlesen «Meta Description – Wie Sie die Klickrate steigern!»

Fullwidth-Zeichen in Title, Meta Description & Text

fullwidth-charactersRankings sind heute nicht mehr alles im organischen Index. Teilweise lassen sich nur noch unter hohem Aufwand Wettbewerber  aus von den Top Positionen der Suchergebnisse verdrängen. Um dennoch einen Teil der Suchen abzufangen und auf die eigene Seite zu lenken ist die Prominenz in der Ergebnisseite der Suche von großer Bedeutung. So lassen sich selbst auf einer niedrigeren Position auf der ersten Seiten hohe und überdurchschnittliche Klickraten erzielen. Das primäre Mittel dazu ist zunächst der Pull – d.h. Auffallen, den Blick des Suchenden anziehen und vom Scannen der Seite zum Lesen des Snippet zu bewegen. Ein effektives Mittel hierzu kann neben anderen Maßnahmen die Verwendung von sogenannten Fullwidth-Zeichen in Title, Meta Description und sogar in der URI, dem Link, sein.

 

HTML-Codierung

SERP-Eye

Weiterlesen «Fullwidth-Zeichen in Title, Meta Description & Text»

Erfolg von SEO Texte mit Web Analytics analysieren

SEO Content sind Textwüsten. Dieses Vorurteil besitzen viele Online Marketers, die mit SEO in Berührung gekommen sind. Häufig ist diese Einschätzung dadurch geprägt, dass lange nichtssagende mit Suchworten vollgestopfte Inhalte erzeugt und auf sogenannten SEO Landingpages bereitgestellt werden. Die Krönung bilden Texte, die einfach nur eine Umformulierung eines Wikipedia Eintrags sind und den eigentlichen Sinn der Webseite als Vertriebskanal völlig außer Acht lassen.

SEO Content mit Google Analytics messenSo verwundert es also nicht dass die Zahlen aus Web Analytics für diese Seiten meist hohe Absprungraten und eine geringe Verweildauer oder Besuchertiefe aufweisen. Vermisst wird zum Beispiel die Nutzeransprache oder ein Call to Action im und vor allem am Ende des Textes – aber vor fehlt häufig das Eingehen auf die eigentliche Suchintension, mit der ein Nutzer über die Suchwörter die Seite betritt.

Andere Webseitbetreiber haben es bereits ohne komplexe Web Analyse und Usability-Tests herausgefunden, wie Inhalte auf bestimmte Zielgruppen oder demografische Faktoren ausgerichtet werden können. Häufig lassen sich solche Strukturen auch bereits aus einer erweiterten Keywordanalyse ableiten, die dann später den eigentlichen Inhalt der Seite, die Nutzeransprache, die Aufdringlichkeit des Call to Action  und die Informationsarchitektur bestimmt. Nur so entsteht ein guter Inhalt, der es am Ende vielleicht auch Wert ist, verlinkt oder empfohlen zu werden ist.

Weiterlesen «Erfolg von SEO Texte mit Web Analytics analysieren»

Google Analytics Kampagnen SEO-freundlich einsetzen

URL-Parameter stellen in der Suchmaschinenoptimierung (SEO) immer eine Gefahr der Erzeugung von Duplicated Content und der unvorteilhaften Verteilung des Link Juice dar. Setzt man das Kampagnentracking von Google Analytics ein, wird ebenfalls durch die Parametrisierung der gleiche Inhalt unter verschiedenen URLs erreichbar gemacht.

Kampagnen TrackingMan könnte nun vermuten, dass Google selbst vielleicht mit den URL Parametern umgehen kann und die eigenen Kampagnen-Parameter utm_source, utm_medium,… ignoriert und nicht indiziert. Weit gefehlt. Sucht man jedoch bei Google nach den Parametern,  findet man unzählige Ergebnisse, bei denen Google auch URLs mit Kampagnen Tracking Parametern indiziert hat.

 

Weiterlesen «Google Analytics Kampagnen SEO-freundlich einsetzen»

Wertet und indiziert der Googlebot Javascript & URLs die kein Link sind?

Seit geraumer Zeit fällt auf, dass Google nicht nur Javascript Links, Ajax Calls mit Hash Tag aber ohne „#!“ Auszeichnung oder Links innerhalb von Flashdateien folgt und indiziert, sondern auch URLs, die eigentlich nicht als Link ausgezeichnet werden.

Letzte Woche hatte ich die Chance mit dem Search Quality Team von Google zu reden. Auf Nachfrage teilte dieser mir mit, dass der Googlebot nicht nur URLs, die im HTML mit href ausgezeichnet sind, indiziert, sondern auch solche aus Javascript. Darüber hinaus werden  auch Links, die dem Schema einer URL entsprechen vom Googlebot indiziert. Das heißt, eine URL wie http://www.serp-eye.com, die im Plaintext der Seite geschrieben wird, wird vom Googlebot ebenso ausgelesen und verfolgt. Google geht hierbei davon aus, dass es sich hierbei um einen Programmierfehler oder Implementierungsfehler handelt und behandelt die URL als echten Verweis. Dies deckt sich auch mit den Daten, die mir in verschiedensten Accounts vorliegen.

Google wertet diese nichtreferenzierenden Links jedoch nicht als Backlink, mit denen Link Juice übertragen wird. Die Daten werden lediglich für bei Crawling Errors verwendet. Link Juice wird jedoch über Javascript-Links und Flashlinks übertragen.

Eine Domain-Visibility wäre, neben der Brand-Visibility, sicherlich ein weiteres nützliches Kriterium bei der Beurteilung einer Webseite und deren Reichweite im WWW. Früher reportete man diese Messwerte auch in SEO Reports. Da allerdings die Datenquellen keine konstante Qualität aufwiesen, ist man vom Reporting diese Kennzahlen wieder abgekommen.

**Update GoogleBot**

Google erkennt nicht nur  URLs die mit http:// beginnen, sondern auch URLs in der Notation www.

Einrichten einer benutzerdefinierten Fehlerseite in der .htaccess Datei

Kann ein Webserver eine Anfrage nicht verarbeiten so wird dem Nutzer in aller Regel eine Standard Fehlerseite des Webservers angezeigt. Wohl jeder kennt die Antwort, die er zu Gesicht im Browser bekommt: „404 Seite nicht gefunden“. Diese Worte geben zwar klar wieder, was gerade passiert ist, aber hilft dem nun frustrierten Nutzer nicht gerade weiter, auch bieten sie Ihm keine entsprechende Alternative. Andere Webmaster machen sich die Arbeit einfacher und leiten alle falschen Anfragen einfach auf die Startseite weiter. Nutzer, die nun über einen veralteten Link auf die Seite gelangen, bekommen nun nicht einmal mit, dass der Inhalt, den Sie angefragt haben nicht mehr existiert.

Server Errors 404, 403, 402, 410, 500Sie beginnen stattdessen diesen nun zu suchen. Beide üblichen Lösungsansätze zeugen von einer schlechten User Experience und sind auch aus Sicht der Suchmaschinenoptimierung SEO nicht zu empfehlen. Besser wäre es in diesem Fall, eine benutzerdefinierte Fehlerseite einzurichten. Auf dieser wird der Nutzer freundlich empfangen und es können Alternativen aufgezeigt werden. Aber wie kann man so eine nutzerfreundliche Fehlerseite in der .htaccess des Apache definieren.

Weiterlesen «Einrichten einer benutzerdefinierten Fehlerseite in der .htaccess Datei»