#1 24. Mai 2009 Hi zusammen, welche Tools, Scripte und andere Programme nutzt ihr, um eure Webseite von Spambots, Sniffern, Crawlern und alle anderen unerwunschten Dingen fernzuhalten? + Multi-Zitat Zitieren
#2 24. Mai 2009 AW: Spamschutz für Foren & Webseiten komplett ausschließen kannst du es nicht. gegen crawler von "normalen" suchmaschinen, hilft eine entsprechende robots.txt. gegen bösartige suchmaschinen (die gezielt da reinschaun, wo normale suchmaschinen nicht rein sollen) hilft es fallen aufzustellen. entsprechende anleitungen gibts im netz. gegen spambots hilft in bildabfrage oder zufällige fragen, die zu beantworten sind. eventuell ziehst du dir mal http://recaptcha.net/ rein und integrierst das in deine webseite. sniffer weiß ich jetzt nicht genau was du meinst, aber gegen netzwerkverkehr mitschneiden hilft nur eine verschlüsselte verbindung (https), aber das lohnt sich bei den meisten webseiten nicht. + Multi-Zitat Zitieren
#3 24. Mai 2009 AW: Spamschutz für Foren & Webseiten Gegen Spam-Bots setze ich erfolgreich die "unsichtbaren E-Mail-Formulare" ein! Einfach ein Textfeld welches man korrekt in das Design einbindet und anschließend mit CSS ausblendet nutzen und bei gefülltem Inhalt das ganze dann als Spam detektieren ;-) ... hätte die Wirkung echt nie gedacht und bin seither Spamfrei =) Generell nutze ich selbst geschriebende IDS um Spam, DDoS, Injections, etc. abzuwehren, zu loggen oder zu verhindern. + Multi-Zitat Zitieren
#4 24. Mai 2009 AW: Spamschutz für Foren & Webseiten Generell nutze ich selbst geschriebende IDS um Spam, DDoS, Injections, etc. abzuwehren, zu loggen oder zu verhindern. Die würden mich mal interessieren + Multi-Zitat Zitieren
#5 24. Mai 2009 AW: Spamschutz für Foren & Webseiten Das IDS muss man natürlich in Anfühungsstrichen versetehen, da es sich nicht um ein richtiges IDS handeln kann, welches auf unteren Layern arbeitet. Aber an sich ein Filtern der GETs, welche ein bestimmtes Muster nach meiner Programmierung aufweisen müssen, der POSTs, welche bestimmte Muster nicht enthalten dürfen, ein Überprüfen der Anfragehäufigkeit auf bestimmte Seiten, welche in der Regel andere Afrufzeiten haben, ein Testen auf die Spamfilter etc. Das ganze hat dann bestimmte Bewertungspunkte für die betreffenden Sessions, was dann zu den entsprechenden Aktionen führt. + Multi-Zitat Zitieren