Justus Blümer

Blog

[Spam] Mit falschem Warez-Content Traffic generieren

Ich mache hin und wieder ein paar Tests und baue kleine Projekte dafür. Die Domain, die ich heute vorstellen möchte ist

http://watchtheshows.com/

Ziel des Tests war es, automatisiert Seiten zu erstellen, um für Longtail-Suchen nach “Index of apache [Serienname]” zu ranken.
Normalerweise ist das eine oft genutzte Möglichkeit, um offen konfigurierte Webserver zu finden, auf denen Serien und Filme abgelegt sind und somit zum kostenlosen (und damit illegalen) Download zur Verfügung stehen:

index-of-friends

Dafür gibt es sogar praktische Tools wie GooLoad, das Vorgehen scheint also recht verbreitet zu sein.

Tatsächlich gibt es auf “WatchTheShows” natürlich keine Filme und Serien, das ist schließlich nicht erlaubt. Nach zunächst wahrscheinlich großer Freude ob der gefundenen Seriensammlung wird der User dementsprechend beim Klick auf den vermeintlichen Link zur Serienepisode mit einer mahnenden Meldung konfrontiert:

aha-looking-for-stuff

Die Datenbasis

Die Liste der Serien habe ich von der wahrscheinlich ebenfalls nicht besonders legalen Streamingseite WatchSeries.to gescraped.

  1. Die Seriennamen erhält man dank der übersichtlichen Auflistung nach Anfangsbuchstaben noch relativ einfach mit der Chrome-Extension Scraper, die über XPath-Ausdrücke Daten aus der aktuellen Website exportiert.
    Damit erhält man eine handliche Liste von 10.659 Serien und URLs zu deren Episodenlisten.
  2. Mit einem einfachen Skript (in meinem Fall in PHP) kann diese Liste nun automatisiert abgefragt werden. Mit DOMXPath habe ich die 499.279 Folgen dazugehörigen Episodentitel extrahiert und in eine MySQL-Datenbank gespeichert.
    Zur besseren Ansprache einzelner Serien werden aus den Seriennamen eindeutige Slugs generiert, die später für den Aufbau der URLs zuständig sind.
  3. Ein weiteres PHP-Skript sorgt dafür, dass beim Aufruf einer URL nach dem Muster /series/[slug] die Serie und ihre Episoden aus der Datenbank abgefragt und in das mehr als einfach gestrickte Template überführt werden.

“Optimierung”

Um Google die Indexierung zu erleichtern habe ich zusätzlich eine XML-Sitemap angelegt und sie in den Webmaster Tools eingetragen. Bis dato gab es dort zwar ein paar 404 Fehler, weil ich bei den Slugs unordentlich gearbeitet habe, aber sonst keine negativen Meldungen.

Ein paar Links von Fiverr kommen auch noch dazu und schon begann Google fleißig, die Seite zu indexieren.

Traffic

watchtheshows-stats

Am 08. Dezember 2013 kam der erste Traffic und reißt bis heute nicht ab. Bisher sind so insgesamt etwas mehr als 6.000 eindeutige Besucher zusammengekommen. Nicht wirklich viel, aber für solchen Schrott-”Content” nicht schlecht.

Was ich an der Stelle viel interessanter finde ist die hohe Anzahl an Seiten / Besuch und die niedrige Absprungrate. In Anbetracht der Tatsache dass sich zahlreiche User mehr als 20 Seiten angeschaut haben wird der Test wohl einigen Serienjunkies schlechte Laune bereitet haben.

Das Publikum war wie erwartet international:

internationales-publikum

Aus Zeitmangel blieben meine Monetarisierungsversuche leider beim ersten erfolglosen Test und ich habe es nicht geschafft, Geld aus dem Traffic zu schlagen. Offenbar lassen sie sich ungerne dazu überreden, ihre Dateien in der cloud storage von Mega.co.nz unterzubringen.
Hier ließe sich möglicherweise mit einem positiv ausgerichteten Usenet-Affiliateprogramm mehr erreichen als mit meiner Sicherheits-Panikmache.

Die Daten zum Download

Wer selbst einmal mit Seriendaten herumspielen möchte und Zeit sparen will, kann sich hier die kompletten Daten der internationalen Serien von WatchSeries als CSV mit Serienname, Staffel, Folge und Episodenname herunterladen (~21 MB).

CSV-Vorschau

Eure Erfahrungen

Welche Erlebnisse hattet ihr in der jüngeren Zeit mit automatisch generiertem Content? Habt ihr selbst schon Experimente mit besser aufbereiteten Inhalten gemacht als ich in diesem Versuch?


Google-Analytics Profile-ID zur API-Nutzung herausfinden

Ich habe eine ganze Weile gesucht bis ich die richtige Antwort gefunden hatte, deswegen hier für alle, die das gleiche Problem haben:
Bei der Nutzung der Google Analytics Reporting API benötigt man neben der Email-Adresse und dem Passwort des Accounts auch noch die sogenannte “profile ID”.

Entgegen zahlreicher Angaben ist die Profile-ID nicht die letzte Ziffer des UA-12345678-9 Codes, sondern befindet sich in der URL, die man beim Aufruf von Analytics erhält:

https://www.google.com/analytics/web/?hl=de&pli=1#home/a56723456w98776532p98236534/

Die Zahl hinter dem letzten “p” ist die profile id, die dann zum Beispiel über das praktische GA PHP Interface genutzt werden kann:

$ga = new gapi('email@adress.com','password');
$ga->requestReportData(profile_id,array('browser','browserVersion'),array('pageviews','visits'));

Sendungsstatus von DHL Paketen automatisiert abfragen

Ich versende relativ viele Pakete mit DHL und bei einer größeren Menge von Sendungsnummern verliert man leicht den Überblick und spätestens wenn man den Versandstatus von 20 Paketen gleichzeitig überblicken will, macht das normale Interface der DHL Sendungsverfolgung keinen Sinn mehr.

Mit Google Docs Spreadsheets geht das einfacher: Sendungsnummen eingeben und dank der Funktion ImportXML werden die Ergebnisse automatisch abgerufen und übersichtlich dargestellt.
Damit kann man 50 Nummern auf einmal überprüfen, ein Limit seitens Google Docs.

»  Tabelle abrufen und in euren eigenen Drive-Account kopieren

DHL Sendungsverfolgung mit Google Spreadsheets


Case-Study: Lebenszyklus eines Gutschein-Spamprojekts

Inspiriert von der sehr interessanten Analyse auf eTaktiker.ch über eine Spamseite, die für Keywords aus dem Bereich “zalando gutschein” rankte, habe ich beschlossen, einen eigenen Test zu machen, um zu überprüfen ob sich solche Ergebnisse reproduzieren lassen und wenn ja, wie viel oder wenig Aufwand damit verbunden ist.
Auch AKM3 hat dieses Vorgehen auf dem Schirm und haben es als Trend Nr. 1 in ihrer Liste für 2013.

Um wenigstens ein bisschen Vergleichbarkeit zu erreichen habe ich die selbe Nische gewählt. Dafür gibt es gute Gründe:

  • Das Suchvolumen ist hoch. Allein für die Suchanfrage [zalando gutschein] gibt das AdWords Keywordtool über 100.000 monatliche Suchanfragen an. Das kann ganz gut hinkommen, wenn ich mir die Besuchszahlen meiner eigenen Seite anschaue, dazu weiter unten mehr.
    Das Suchvolumen bei Google für das Keyword zalando gutschein
  • Die Conversionrate ist hoch. Wer sucht nach Gutscheinen? Hauptsächlich Menschen, die gerade ihren Warenkorb gefüllt haben und vor dem Abschicken der Bestellung noch schnell einen Rabatt absahnen wollen, d.h. die Conversion ist fast schon geschehen.
  • Die Provisionen sind hoch. Beim Zalando-Partnerprogramm via Affilinet gibt Zalando heftige 12% für Neukundenvermittlungen und 6% für Sales an Bestandskunden, in beiden Fällen ohne Deckelung nach oben wie z.B. beim beliebten Amazon PartnerNet. Für gegenständliche Produkte ist das ziemlich viel, insbesondere wenn man bedenkt, dass der durchschnittliche Warenkorbwert laut Zalando bei 140 € (PDF, s. S. 2 Punkt 1) liegt.
    Affilinet-Provisionsübersicht von Zalando
  • Die komplette Nische rund um “zalando gutschein” ist Spam. Oder zumindest halte ich es dafür. Der Nutzer ist sucht nur einen Gutschein. Was er bekommt ist in aller Regel irgendwelche Gutscheincodes die für ihn nutzlos oder abgelaufen sind, hauptsache der Affiliate hat sein Cookie untergebracht. In einem Umfeld in dem Seriösität derart klein geschrieben wird fällt es zumindest mir moralisch leichter, mit Spam zu experimentieren.

Nachteil:

  • Die Stornoquote ist mutmaßlich ziemlich hoch. Zalando bietet ein Rückgaberecht von 100 Tagen an, das auch gerne genutzt wird. Die in diversen Foren kolportierten Raten liegen zwischen 50 und 80%.

Mein Vorgehen

Wie kann ich die Rankings von gutschein-jet.com und Konsorten möglichst unkompliziert erreichen? Vorweg: Solche Rankings habe ich mit meinem Testprojekt nicht erreicht. Funktioniert hat es insgesamt trotzdem.

Die Spamseite rankt nicht mehr, kann aber nach wie vor unter http://www.bdthreads.com aufgerufen werden.

  1. Genau wie im eingangs erwähnten eTaktiker-Artikel beschrieben habe ich einen blogspot-Blog aufgesetzt und mir mit gutschein-kaiser.de (mittlerweile gelöscht) eine eigene, komplett frische Domain registriert und aufgeschaltet.
  2. Mit einigem Zeitaufwand habe ich ziemlich nutzlosen und uninteressanten Content rund um das Thema Schuhe und Gutscheine verfasst und über mehrere Wochen hinweg erweitert. Gegen Ende umfasste der Text, der komplett auf der Startseite platziert war, ~2.300 Wörter.
  3. Über fiverr.com habe ich für die plattformüblichen $5 ein kleines Paket an +1, Tweets und Likes gekauft. Sah einfach nett aus.
  4. Es folgte ein weiteres fiverr.com Paket mit automatisch generierten Links aus Benutzerprofilen diverser Wikis, die zu einem guten Teil auf .edu-Domains lagen. Keinerlei Content in der direkten Umgebung der Links, keine deutschen Linkquellen und ein Haufen anderer Spamlinks von diesen Domains an andere Kunden. Das waren sehr schlechte Links, die Google sofort hätte erkennen müssen.

Von dort an ging es los und ich konnte die ersten Sales verbuchen:

Zalando Sales

Die Klicks sind zusätzlich über einen bit.ly Link gegangen, der zusätzliche Statistiken liefert: https://bitly.com/Xp62GY+

Bitly Statistiken

Das ist keine schlechte CTR, wenn man sich die Besucherzahlen (mit Google Analytics gemessen) ansieht:

Analytics: Gutschein-kaiser.de

Dabei kamen die Besucher nicht über das so häufig gesuchte “zalando gutschein”, sondern über “zalando gutschein april 2013″ und ähnliches, wo die Seite sich zwischen den SERP-Positionen 8 und 4 hin und herbewegte, also nicht einmal dort eine #1-Platzierung innehatte.

Der zweifelhafte Erfolg der Seite setzte sich fort bis ich mich dazu entschied zu versuchen, die Seite mit noch mehr Links abzuschießen. Nach einem weiteren Linkpaket, diesmal der 15€ teuren “Backlinkspyramide” von Backlinkskaufen24.com hat das auch tatsächlich funktioniert und die Rankings waren eine Woche nach der Linksetzung schlagartig weg.
Als weiteres Mini-Experiment wollte ich sehen was passiert, wenn ich den Content auf die völlig themenfremde longtime-expired domain bdthreads.com umziehe. Kurzum: Nichts.

Resultate

In der Zeit, in der die Seite aktiv war, habe ich mit 349 Klicks 125 Sales vermittelt, die Conversionrate ist mit 35% wie erwartet auf den ersten Blick ziemlich gut.

Das relativiert sich etwas beim Blick auf die tatsächlich erzielten Umsätze. Von insgesamt 686,76 € Provisionen vor Abzug der stornierten Bestellungen sind bereits 260,10 € tatsächlich bei mir angekommen, weitere 114,85 € sind bestätigt und werden folgen und 118,52 € warten noch auf ihre Bestätigung/Stornierung, die erst 60 Tage nach dem Sale erfolgt.

Für die, die an den einzelnen Bestellungen im Detail und an der Stornoquote interessiert sind habe ich hier den Export meiner Affilinet-Statistiken für das Projekt hochgeladen: Provisionsübersicht als CSV-Datei

Fazit & Ausblick

Die erzielten Provisionen sind keine Reichtümer, aber in Anbetracht der investierten Arbeitszeit von wenigen Stunden rechnerisch kein schlechter Lohn.

So richtig rentieren wird es sich aber erst, wenn noch bessere Rankings beim Hauptkeyword “zalando gutschein” erreicht werden. Um mehr Kontrolle über die gesetzten Backlinks zu haben und die Lebensdauer des Projekts mit geringfügig besseren Links vielleicht noch ein bisschen zu steigern, bietet sich an, das Linkbuilding automatisiert selbst zu übernehmen. XRumer, Scrapebox und diverse kleinere Artikelverzeichnis-Submitter bieten sich an.
In meinem Versuch habe ich fast die komplette Arbeitszeit für die Erstellung des “Contents” investiert. In einer größer angelegten Operation müsste man diesen Prozess automatisieren und z.B. mit einem guten Text-Spinner Artikel en masse produzieren, um zahlreiche Seiten parallel mit Inhalten versorgen zu können.

Dass Spam keine sinnvolle Beschäftigung ist, die damit erzielten Einnahmen auf sehr wackligen Beinen stehen und überaus ungewisse sind und dass man damit vielen Leuten auf die Nerven geht sollte jedem klar sein.


PDFLib unter MAMP installieren

Diese Anleitung für die Installation der PDFLib zur Erstellung von PDF-Dateien unter PHP ist nicht mehr ganz aktuell, deswegen hier die aktualisierte Fassung mit richtigen Pfadangaben:

1) PDFLib herunterladen

Wähle in der Rubrik OS X die Version für PHP aus

2) Das soeben heruntergeladene Diskimage öffnen und zum Ordner /bind/php/php-540/ navigieren und die Datei php_pdflib.so in den Ordner /Applications/MAMP/bin/php/php5.4.4/lib/php/extensions/no-debug-non-zts-20100525 kopieren.

3) Die Datei /Applications/MAMP/Library/bin/envvars öffnen und den Zeilen

DYLD_LIBRARY_PATH=”/Applications/MAMP/Library/lib:$DYLD_LIBRARY_PATH”
export DYLD_LIBRARY_PATH

ein #-Zeichen voranstellen, um sie auszukommentieren und das Speichern nicht vergessen.

4) In der /Applications/MAMP/bin/php/php5.4.4/conf/php.ini im Bereich wo die anderen Extensions hinzugefügt werden (etwa um Zeile 540) die folgende Zeile hinzufügen:

extension=php_pdflib.so

Und dann nur noch den Server einmal neustarten und die PDFLib ist installiert. Ob alles geklappt hat, kann man z.B. über den phpinfo()-Aufruf nachsehen:


Nächste Seite »