Carcasherdotcom Seocontest Spam

Nach der Volltextklau-Nummer a la Archiv-Blog kommen jetzt so langsam die Schnipselklauer ins Radar der Blogger. Nebenan ärgert sich gerade Monika über die ungefragte Selbstbedienung durch artikel-rss.com. Neben diesen Dingen gibt es dann auch noch den Kampf mit dem Spam. Und manchmal überlappen sich dann auch noch beide Bereiche. Heute fragte mich Gsyi vom Webmaster & SEO Blog was ich denn von der Seite www.carcasherdotcom-seocontest.info und ihren Methoden halten würde.

Ich hatte die Seite bisher noch nicht bemerkt und war von daher anfänglich sehr entspannt. Ein Freund von solchen Seiten bin ich zwar nicht, aber meist drücke ich ein Auge zu und schone so auch meine Nerven. Nett ist es nicht, wenn sich da jemand ungefragt fremden Contents bedient. Und noch weniger nett ist es, wenn er für die Verlinkung das rel=nofollow Attribut verwendet.

Bis hierhin war mir die Sache immer noch keinen Aufreger wert, doch als ich dann plötzlich in meinem Postfach über eingelaufende Trackbacks von dieser Carcasherdotcom-Seite informiert wurde, war’s dann doch zu viel. Erst gestern hatte mich eine andere Spam-Nase in meinem alten Weblog mit Spam zugemüllt, dann die tägliche Zeitverschwendung durch die Kommentarbereinigung von 200-600 Spameinträgen und jetzt diese nervigen Pseudo-Pingbacks, die auch noch durch den Filter rutschen.

Seit ein paar Tagen hageln hier täglich locker 200 bis 600 Kommentare, Ping- und Trackbacks der spammigsten Sorte auf mein Weblog hernieder. Ich kann von Glück reden, dass ich mein Weblog vor einiger Zeit auf Spam Karma 2 umgerüstet habe. Und alleine bin ich nicht, wie der Spam-Flut Beitrag nebenan bei Knut zeigt. So langsam wird es Zeit für Gegenmaßnahmen. Damit meine ich keine passiven Aktionen a la nofollow (das ist ein Scherz) und auch keine simplen Spam-Filter, die machen nämlich immer noch genug Arbeit, sondern eher Aktionen die die Spammer direkter treffen.

Vielleicht hat ja jemand eine geniale Idee da draussen?

6 Gedanken zu „Carcasherdotcom Seocontest Spam“

  1. Es gab mal ein Skript, das gute und böse Robotter voneinander unterscheiden konnte, um böse Bots beim Besuch entweder auf eine leere Seite oder auf eine Spiderbombe umzuleiten. Ich kann das Skript leider auf die Schnelle nicht finden. Wäre aber vielleicht ein Ansatz. ;-)

    Antworten
  2. Pingback: professional WebDesign barrierefrei

Schreibe einen Kommentar