Google crawler AdWords landing-sider
Google har tilføjet endnu en spider til deres arsenal af eksisterende robotter og webcrawlere. Denne gang handler det om den såkaldte AdBot. Denne spider er designet til at tjekke kvalliteten af de sider som AdWords annoncer peger på. De indsamlede information vil så indgå i den nye Google AdRank, som en faktor der vurderer hvor højt annoncer skal placeres og hvad der minimum skal betales. Det kan således komme til at koste annoncører dyrt, som sender alle brugerne hen til forsiden af deres site, generiske salgssider, eller sider helt uden tekstinformation. Og særligt det sidste kan vise sig at blive et stort problem. For en af årsagerne til at mange bruger AdWords er netop, at man kan få søgemaskinetrafik til grafiske reklamesider som ellers ikke ville blive fundet og ranket af søgemaskinerne på naturlig vis. Hvis sådanne sider nu “straffes” i Googles AdRank-system, så må disse annoncører jo søge andre veje. Det mest naturlige andet valg ville blive en cloaking-løsning, fra f.eks. sådan en som mig.
Omend jeg godt kan forstå årsagen til, at Google har indført dette system, så mener jeg, at de skyder sig selv i foden med beslutningen. Jeg tror det vil koste dem mere end det vil gavne søgebrugerne. Og jeg er overbevist om, at det vil skabe endnu mere frustration hos annoncørerne, der i forvejen har svært ved at forstå rimeligheden af alle de andre regler og begrænsninger der er for brugen af AdWords.
Dertil kommer websites der slet ikke tillader crawling. Hvis du bruger robots.txt eller META-robots tags til at holde søgemaskinerne ude, så vil AdBot fra Google naturligvis respektere dette, men du vil så til gengæld også komme til at betale for det. Er det rimeligt? Er det fornuftigt? Nej, det mener jeg ikke det er!
Og det er jo så bare endnu en god grund til at fokusere mere på det organiske frem for PPC 🙂
Skriv kommentar