SEO Bounce rates og SEO Surfbot Nets (SBN)
Endnu engang har mine gode venner på Fantomaster skrevet en virkelig god artikkel – denne gang om en af tidens hotte emner: SEO Bounce Rates og den naturlige følge af dette: SEO Surfbot Nets (forkortet til SBN). For de fleste kræver det nok lidt yderligere forklaring …
Bounce Rates er et udtryk for hvor mange der, når de besøger et website, kun ser en side og så smutter hurtigt igen. Sådanne besøgende regnes normalt for ikke at være så meget værd.
Den logiske følge har derfor længe været, at hvis sådanne besøg – når de kommer fra et søgemaskineresultat – kan siges at være et udtryk for et dårligt søgeresultat (som opfattet af den enkelte bruger) så vil det være logisk for søgemaskinerne at tage dette med i deres vurdering af, hvor godt de enkelte websites bør ranke. Et website der ranker højt på en søgning, men får mange bounces bør måske skubbes lidt længere ned.
Som med så mange andre nye faktorer indenfor søgemaskineoptimering er det også med denne meget svært at fastslå med sikkerhed om søgemaskinerne faktisk gør sådan i dag. Men spekulationerne har som sagt været der længe, og de er i den senere tid taget til.
Den logiske følge for os, der ønsker at ranke bedre med vores (eller kundernes) websites – koste hvad det vil – er derfor at forsøge at manipulere denne faktor, på samme måde, som vi forsøger, at manipulere alle andre faktorer.
Den mest oplagte måde at gøre det er gennem det som Fantomaster har døbt SEO Surfbot Nets.
Et botnet er en samling af software robotter, eller bots, der kører i en eller anden form for kontroleret netværk. Ofte er botnets forbundet med ulovlige aktiviteter, men det behøver det absolut ikke altid at være (selvom de fleste i deres beskrivelser af botnets udelukkende fokuserer på de ulolige anvendelser). F.eks. anvendes botnets også i distributed computing.
SEO Surfbot Nets er behøver ikke at være ulovligt! Der er ingen tvivl om, at det strider mod mange af søgemaskinernes “guidelines”, men det er vi mange der ikke altid tager så højtideligt. Som Fantomaster også argumenterer, bryder søgemaskinerne også selv mange af de “guidelines for brug” som de websites de crawler har sat op, udover (muligvis) ophavsretslovgivningen i mange lande.
Ideen med SEO Surfbot Nets er så, at man opbygger sit eget netværk, der kan simulere en masse (fiktive) brugeres aktiviteter på nettet på en måde så det gavner lige dit website.
Lidt forenklet sagt kan et sådan program foretage søgninger på keywords der er vigtige for dig og så simulere en masse bounce clicks på de sites du vil have ned, for så til sidst at ende med et ikke-bounce klik på dit site. På den måde kan du så vise søgemaskinerne, at lige dit site er et folk bliver på – hvorimod en masse af dine konkurrenters websites har høje bounce rates på dine vigtige søgninger.
Det er dog ikke nogen helt enkelt opgave at opåbygge et sådan SEO Surfbot Net.
Først skal du have sat en tilstrækkelig mængde proxy servere op. Alt efter hvilket land og område du skal angribe kan det kræve fra nogle få hundrede til mange tusinde.
Herefter skal programmerne der simulerer rigtige brugere så opbygges. Det er også en omfattende opgave. Der er alle mulige faktorer der skal tages hensyn til, herunder: GEO Targeting, realistiske tidszoner, brugerprofiler osv. Og så skal programmet naturligvis understøtte cookies, redirects osv. Hvis ikke det hele laves meget omhyggeligt, så vil det være alt for let for søgemaskinerne at identificere det som robotter.
Hvis du er mere interesseret i emnet kan jeg anbefale dig at læse Fantomasters fine artikkel om hos Fantomaster og ikke mindst følge de links de har tilføjet i bunden.
Brian Bentzen skriver
Meget interessant.
Jeg kan godt se den umiddelbare logik i at søgemaskiner skal nedrangere websteder som har høje bounce rates på et bestemt søgeord. Men jeg tror ikke det er så simpelt.
Der er mange websteder, fx en blog eller et faktuelt websted som en wiki, hvor bounce raten sagtens kan være stor uden at det betyder, at webstedet er dårligt, irrelevant eller ikke opfyldter det som brugeren søgte på.
Omvendt kan man også argumentere for at der findes rigtigt mange websteder, hvor en lav bounce rate bør være et mål for webstedet, fx websteder som skal brande en virksomhed eller offentlige websteder.
Og det leder mig så frem til om søgemaskinerne per se opfatter en høj bounce rate som et dårligt tegn og derfor nedrangerer et websted. Det tror jeg ikke.
Derfor er der uden tvivl flere faktorer man bør overveje.
Mikkel deMib Svendsen skriver
Den form for bounce rates søgemaskinerne interesserer sig for vil nok fortrinsvis være dem, hvor brugeren forsvinder igen indenfor få sekunder, da der er større sandsynlighed for, at sådanne besøg er uden værdi – selv for en blog eller en Wiki.
Frank Hellerup Madsen skriver
Og for relativt små penge kan sådan en bot-kampagne suppleres ved at hoppe ind på getafreelancer, Amazons Mechanical Turk eller lignende steder og hyre en større stabel levende mennesker til at gøre det samme arbejde.
Af disse årsager har jeg svært ved at tro, at bounce rate kommer til at blive en væsentlig faktor i den nærmeste fremtid.
Mikkel deMib Svendsen skriver
Det samme kan siges om links. Mener du heller ikke de har nogen betydning? 🙂
Mikael Rieck skriver
Hvis det virkelig kan have så stor betydning for ranking at det er værd at sætte op, så er det godt nok en usmagelig måde at konkurrere på. Hvis søgemaskinerne kunne opdage hvem der stod bag sådan noget, så ville en retfærdig straf efter min mening være, at de pågældende sites helt blev fjernet.
Patrick Blasone skriver
Jeg faldt over samme artikel på Sphinn.
Som manden selv siger, og som du også nævner, så er det ikke et ubetydeligt setup, der skal til, hvis man skal have sådan et surfbot net til at holde sig under Google’s radar. Og den software, der skal til, skal have noget af en AI for bare at have den mindste chance for at narre Google, der jo råder over en uhyggelig mængde statistik over almindelige menneskers adfærd på nettet.
I første omgang er spørgsmålet vel, om Google vil eller ikke vil bruge bounce rates (eller rettere, hvorvidt brugeren klikker “back” inden for få sekunder).
Selv om Google jo direkte har afvist, at man kan bruge bounce rates, da det er en alt for “spammable” faktor, så er det næsten en for værdifuld relevans-indikator for et site til, at de vil undlade at bruge denne faktor på den ene eller den anden måde.
Ved at bruge deres toolbar kan de jo nøjes med at bruge klikdata fra brugere, som de efter længere tids overvågning vil godkende som “rigtige mennesker”. Ved at overvåge en bruger i meget lang tid, før de accepterer vedkommende som et rigtigt menneske, kan de gøre det yderst svært for ejeren af et surfbot net. Botnettet vil i så fald skulle køre konstant over måneder og år, og botnettets kunstige internetbrugere skulle jo regelmæssigt surfe nettet – også på andre sider, for at de vil virke ægte.
Jeg tror simpelthen dette botnet-setup vil være for svært at lave. Alene det, at programmørerne af softwaren til det ikke råder over statistik over net-adfærd vil gøre det stort set umuligt at opnå en tilstrækkelig høj AI.
Personligt håber jeg, at Google lykkes med at få klik-tilbage-med-det-samme-faktoren med i rankingen, da det vil være en kæmpe gevinst for os med relevante sites og et stort problem for spam-sites!
Mikkel deMib Svendsen skriver
Jeg kan sagtens se utallige måder SEO Surfbot Nets kan opbygges og udnyttes effektivt uden de helt store problemer. Det er slet ikke så svært som du tror det er, hvis man ved hvordan sådan noget kan bruges.
I princippet er det ikke så meget anderledes end med f.eks. links. Det er den samme type udfordring – og den kan, som med det meste anden SEO, løses med “flinkeskole-strategier” eller med “buldozer-metoden” 🙂
Patrick Blasone skriver
Det kommer vel an på, hvordan Google har tænkt sig at kigge på adfærden mht “bouce rates”, hvis de da overhovedet har?!
Hvis Google gør noget ud af, hvilke brugere den vil acceptere data fra, så kan jeg altså ikke se, at et surfbot net skulle kunne bruges til dette formål. Hvis Google derimod gør det nemt at spamme, så jo da, bevares, men det tror jeg næppe.
Jeg ved selvfølgelig ikke, om man kan bruge surfbot nets til andre ting. Det skulle da lige være til at klikke på konkurrentens adwords?! 😉
Mikkel deMib Svendsen skriver
Alt kan manipuleres – det er kun et spørgsmål om hvor og hvordan det kan betale sig at gøre det 🙂
Patrick Blasone skriver
Der er vi ikke uenige, og derfor siger jeg heller ikke, at det er umuligt at snyde Google ift. bounce rates med et botnet, bare uforholdsmæssigt resursekrævende!
Hvis Google har bare 6 mdr., hvor de “ser brugeren an”, så skal du have flere hundredetusinde samtidige falske brugere kørende med regelmæssig internetaktivitet og hver deres Google toolbar id for bare at forsyne et site med 30.000 Google-visits pr. måned.
Så hvis det skal lykkes, så vil der nok nærmere blive lavet nogle faste, store surfbot nets, som webmastere så kan leje sig ind på, så nettets “brugere” også besøger hans site, snarere end at individelle webmastere eller SEO-folk sætter sådan noget op.
Mikkel deMib Svendsen skriver
Nej, dit regnestykke hænger ikke sammen. Du vil sagtens kunne påvirke et sådan system med langt færre resourcer. Det hele afhænger af hvad du sigter efter.
Og jeg tror du overvurdere hvor mange sikringer søgemaskinerne vil lave – se på linkpopularitet i Google i dag! Det har ekstrem stor betydning og er alligevel alt for let at manipulere automatisk.
Patrick Blasone skriver
Ja, det er netop alt sammen meget teoretisk, da vi jo ikke aner noget som helst om, hvad Google vil gøre, og hvor meget de vil gøre ud af at fange spam.
Min pointe er bare, at hvis Google virkelig vil, så kan de gøre det meget svært at lave mange falske Google toolbar-brugere, hvad end disse så skal bruges til.
Det er rigtigt, at der let kan snydes med linkpopularitet, men dette faktum kan lige så vel være et argument for, at Google vil gøre mere ud af at begrænse snyd fremadrettet. Det er jo et stort problem for dem, at der foregår så meget “søgeoptimering”, og at resultaterne derved bliver mindre og mindre relevante som tiden går. Derfor har de jo hårdt brug for en ny måde at ranke sider på, og denne “bounce rate” er jo helt uovertruffen til dette formål.
Når Google så oven i købet siger, at de ikke vil kigge på bounce rate pga spam, må det betyde, at de i hvert fald vil gøre noget ud af at begrænse spam, hvis de alligevel begynder at bruge det.
Men vi må vel bare vente og se, hvad de gør! 😉
Mikkel deMib Svendsen skriver
Din vurdering hænger slet ikke sammen med hvad mine mange års erfaring med den slags fortæller mig
Patrick Blasone skriver
Mange års erfaring?! … Så Google kan altså ikke ændre praksis eller forbedre deres filtre, fordi de ikke har gjort det hidtil?!
Jeg siger ikke engang, at de vil gøre det. Blot at det virker sandsynligt, og at det er en oplagt mulighed. Men som sagt, så finder vi jo ud af det helt automatisk!
Mikkel deMib Svendsen skriver
Ja, jeg har mange års erfaring med det her og det er nu engang det bedste grundlag når man skal vurdere hvordan en virksomhed som Google vil agere. Det er i hvert fald et langt bedre grundlag end det modsatte
Patrick Blasone skriver
Der er jeg bestemt ikke uenig, og du får sikkert også ret. Jeg vil dog fastholde, at det rent teknisk kan lade sig gøre at lave en meget effektiv spam-filtrering ved hjælp af langvarig overvågning, og at det således er en mulighed for Google, hvis det kan gøres inden for lovens rammer. Om de så benytter sig af den, er en anden sag!
Jesper Jørgensen skriver
Spøjst ingen nævner muligheden for at influere egne og konkurrenternes CPC pris i Adwords annoncer. Kan du trække en eller flere konkurrenter ned fra en CTR på 10% til 1% på konkurrenceprægede søgeord har du en kæmpefordel. “Reverse Click fraud” kan man vel kalde det. Burde være væsentligt nemmere at udnytte.
Mikkel deMib Svendsen skriver
Der er der skam mange der har nævnt – inklusiv undertegnede. Masser af gange. Du skal bare nogle år tilbage i historiebøgerne. Jeg har både skrevet om det og snakket om det på konferencer og Strikepoint 🙂