Spamschutz für Foren & Webseiten

Dieses Thema im Forum "Sicherheit & Datenschutz" wurde erstellt von Nippel, 24. Mai 2009 .

  1. 24. Mai 2009
    Hi zusammen,

    welche Tools, Scripte und andere Programme nutzt ihr, um eure Webseite von Spambots, Sniffern, Crawlern und alle anderen unerwunschten Dingen fernzuhalten?
     
  2. 24. Mai 2009
    AW: Spamschutz für Foren & Webseiten

    komplett ausschließen kannst du es nicht.
    gegen crawler von "normalen" suchmaschinen, hilft eine entsprechende robots.txt.
    gegen bösartige suchmaschinen (die gezielt da reinschaun, wo normale suchmaschinen nicht rein sollen) hilft es fallen aufzustellen. entsprechende anleitungen gibts im netz.

    gegen spambots hilft in bildabfrage oder zufällige fragen, die zu beantworten sind. eventuell ziehst du dir mal http://recaptcha.net/ rein und integrierst das in deine webseite.
    sniffer weiß ich jetzt nicht genau was du meinst, aber gegen netzwerkverkehr mitschneiden hilft nur eine verschlüsselte verbindung (https), aber das lohnt sich bei den meisten webseiten nicht.
     
  3. 24. Mai 2009
    AW: Spamschutz für Foren & Webseiten

    Gegen Spam-Bots setze ich erfolgreich die "unsichtbaren E-Mail-Formulare" ein! Einfach ein Textfeld welches man korrekt in das Design einbindet und anschließend mit CSS ausblendet nutzen und bei gefülltem Inhalt das ganze dann als Spam detektieren ;-) ... hätte die Wirkung echt nie gedacht und bin seither Spamfrei =)

    Generell nutze ich selbst geschriebende IDS um Spam, DDoS, Injections, etc. abzuwehren, zu loggen oder zu verhindern.
     
  4. 24. Mai 2009
    AW: Spamschutz für Foren & Webseiten

    Generell nutze ich selbst geschriebende IDS um Spam, DDoS, Injections, etc. abzuwehren, zu loggen oder zu verhindern.

    Die würden mich mal interessieren
     
  5. 24. Mai 2009
    AW: Spamschutz für Foren & Webseiten

    Das IDS muss man natürlich in Anfühungsstrichen versetehen, da es sich nicht um ein richtiges IDS handeln kann, welches auf unteren Layern arbeitet.

    Aber an sich ein Filtern der GETs, welche ein bestimmtes Muster nach meiner Programmierung aufweisen müssen, der POSTs, welche bestimmte Muster nicht enthalten dürfen, ein Überprüfen der Anfragehäufigkeit auf bestimmte Seiten, welche in der Regel andere Afrufzeiten haben, ein Testen auf die Spamfilter etc. Das ganze hat dann bestimmte Bewertungspunkte für die betreffenden Sessions, was dann zu den entsprechenden Aktionen führt.
     
  6. Video Script

    Videos zum Themenbereich

    * gefundene Videos auf YouTube, anhand der Überschrift.