Guide til identificering af uønskede robotter
Min kollega på WebmasterRadio, David Naylor, har en virkelig god og detaljeret gennemgang af hvordan man identificerer og stopper uønskede robotter på sin blog.
Hvis du har et meget stort website med mange sider, kan sådanne uønskede robotter godt udgøre et stort problem. De hamrer løs på dit website uden respekt for robots.txt og belastning på serveren og kan i yderste fald gøre adgangen for andre, almindelige brugere, tungere.
Du kan læse hele Davids artikel her.
Søren Sprogø skriver
Nice.
Jeg har jævnligt/dagligt BadBots der suser forbi flere af mine sites, og leder efter huller hvor de kan submitte ting. Hvordan ved jeg det? Der er et fejl et sted i min kode (irriterende, har ikke kunnet finde det), når nogen submitter mystiske data via en form så sitet generer en fejlmeddelelse. Og det er sat op således at jeg får en mail hver gang en fejl bliver genereret.
Heldigvis er alle kommentar forms o.lign. beskyttet vha. Chapta, hvilket ingen af dem har kunent bryde endnu (7-9-13). Men det er træls at de dukker op i webstatistikkerne!
Super guide, tak for info Mikkel!
Måske skulle man skrive en honeytrap plugin til det CMS jeg benytter (Umbraco) 🙂
Mikkel deMib Svendsen skriver
> Måske skulle man skrive en honeytrap plugin til det CMS jeg benytter
Det lyder som god ide. Det er der sikkert mange der vil sætte pris på og takke dig for.
Christian Foged skriver
Genialt! Takker for link – keepm’em comming 😉
Thomas skriver
Mange tak for linket. Det vidste jeg slet ikke at man kunne.