Nye quality guidelines fra Google!
Google har annonceret en justering af Google’s quality guidelines. Hvis du følger linket og sidder i Danmark vil du sikkert komme frem til den danske oversættelse af Google’s quality guidelines og ændringerne er ikke oversat endnu, men du kan vælge den engelske version i øverste højre hjørne, så skulle du se dem. Jeps, det er det vi kalder cloaking 🙂
De nye guildelines går i korthed ud på at Google nu kræver at man udelukker sine søgeresultatsider fra indeksering – f.eks. ved brug af Robots.txt. Det vil sige, at hvis man kan søge på dit website, som man f.eks. kan her på demib.dk, så skal den side som viser søgeresultaterne udelukkes fra Google nu.
Hvis du søger her på demib.dk på f.eks. “seo” får du denne søgeresultatside: https://www.demib.dk/index.php?s=seo Søgemaskinerne søger ganske vist ikke, så hvordan skulle Google dog kunne finde denne side – de følger jo bare links? Oops, det eksempel jeg lige skrev var jo faktisk et link, og så kan de følge det og indeksere siden.
Danny Sullivan har en rigtig gode gennemgang af denne og mange flere problematikker i forbindelse med de nye quality guidelines fra Google, og på Matt Cutts blog kan du læse den originale annoncering af ændringerne, og Matts argumenter for at indføre det.
Jeg kan sådan set godt forstå Google’s ændringer i deres quality guidelines. Men jeg kan også se, at der er rigtig mange websites, som kan ende med at komme virkelig meget i klemme her, og jeg forudser desuden at der vil opstå mange “falske possitive” altså sites og sider, som Google mener er “søgeresultater”, men som slet ikke er det.
I alle fald bør du holde tungen lige i munden, genoverveje din SEO strategi, lave de fornødne ændringer NU, og i det hele taget være klar til pludselige forandringer i den kommende tid.
De websites som jeg forudser i første omgang vil få problemer, er de mange produktsammenlignings-sites, rubrik-annonce websites, rejsesites og aktions-sites. De fleste af disse sites bygger 99% af deres SEO-strategi (dem der har sådan en!) på en eller anden form for søgeresultatsider – sider der autogenereres med lister af relevante produkter ud fra bestemte søgeord. Siderne kan så iøvrigt se meget forskellige ud, og det kan URL’erne også. Men søgeresultater, det er de, og dem vil Google altså ikke have med mere. Så hvis du driver sådan et website skal du være EKSTRA opmærksom lige nu!
Alt håb er ikke ude for disse websites. Det er meget muligt, at den nuværende strategi skal ændres væsentligt. Der en kreativ udfordring. Men ikke en umulig opgave!
Vi vil snakke en hel masse om netop disse nye guidelines i Strikepoint i dag – tune ind på WebmasterRadio.fm kl. 21 – eller snup en PodCast senere …
Marcel Fuursted skriver
Ja, jeg læste godt artiklen – og er også i fulde gang med at finde kreative løsninger.. Vi har nemlig et par sites (igangværende og kommende), som gør brug af søgeresultatsider…
Hvad vurderer du som værende årsagen til, de gør det?
John skriver
Hej.
Nu spørger jeg lige ud i skoven.
Skal din index side så udelukkes for indeksering, efter det viste eksempel 🙁
Mvh. John
Mikkel deMib Svendsen skriver
> Skal din index side så udelukkes for indeksering, efter det viste eksempel
Nej, jeg vil nok anvende META-noindex i stedet
> Hvad vurderer du som værende årsagen til, de gør det?
Fokus på brugerne – de fleste søgeresultatsider i søgeresultater gavner ike brugerne
Michael Oxkjær skriver
Jeg faldt lige over noget der står:
“Make sure your web server supports the If-Modified-Since HTTP header.”
Hvordan hulen finder man ud af om den gør det og hvad gør man hvis ens server ikke understøtter dette?
Mikkel deMib Svendsen skriver
Det behøver du ikke tænke på, Michael. Google udelukker ikke sider alene fordi de ikke understøtter If-Modified-Since HTTP header.
Hvis du meget gerne vil hjælpe Google med at spare på deres resurser, så kan du putte det på – hvis du er mere fokuseret på dine egne behov, frem for Googles, så lad være 🙂
Stefan Juhl skriver
Michael, du kan tjekke den header din server sender når du forespørger på en STATISK url – f.eks. et billede – med en ‘If-Modified-Since header’. Så skulle responskoden gerne være ‘304 Not Modified’. En hurtig søgning gav dette værktøj: http://www.edginet.org/cgi-bin/http_head.cgi som kan lave den forespørgsel for dig.
Men det er nu ikke noget jeg overhovedet ville gå op i medmindre det er for at spare på min egen båndbredde. Dette er blot et “krav” Google stiller for at presse flest muligt til at benytte det, så Google selv kan spare resurser. De vil næppe straffe et website for ikke at svare “korrekt” på den header, da det f.eks. kun er de færreste dynamiske websites, der gør det. Mange dynamiske websites returner en typisk ‘200 OK’ ved sådan en forespørgsel.
Stefan Juhl skriver
Hehe.. Jeg skal nok til at stoppe det der “tabbed browsing” hvor jeg først får læst tingene et kvarter efter jeg loader siderne… Så blev jeg fri for at gentage andre!
Mikkel deMib Svendsen skriver
Det er altid godt med lidt flere detaljer, Stefan! 🙂
Stefan Juhl skriver
Ja, det er altid noget at jeg fik tilføjet lidt. Det er bare ikke helt første gang at jeg har lavet det stunt med at svare vel sent… 😀
Ossian skriver
Det bliver spændende at se om Jubii har tænkt sig at følge de nye retningslinier. En pæn del af deres besøgende kommer netop via Google og rammer deres søgeresultater. Søg eksempelvis på “Sommerhus”…
Mikkel deMib Svendsen skriver
Om de har tænkt sig at følge dem, tilpasse sig dem eller ej er jo op til dem selv – på samme måde som det er op til Google, om de så vil have deres sider med 🙂
Bo Tranberg skriver
Der rög mit firmas grundlag 🙁
Er det sikkert, at man bliver “smidt ud”, hvis man har for mange sögeresultat sider?
Gläder det ogsä diverese sider f.eks. shops som har produkter fra en database, hvor man pä siden kan ändre denne, ved at ändre pä et filter? (ved ikke om det teknisk er en sögeresultat side?)
Demib, hvis du finder en god kreativ lösning pä problemet, sä blogger du den lige ik? 😀
Mikkel deMib Svendsen skriver
> Der rög mit firmas grundlag
Du må meget undskylde, men så har du altså spillet dine kort meget dårligt. Man skal aldrig lægge alle sine æg i en kurv! 🙂
Man bør altid kunne overleve enhver reklame-kanals bortgang, som man ikke har kontrol over. Ellers hænger man hovednøglen til sit liv hos andre.
> Er det sikkert, at man bliver “smidt ud”, hvis man har for mange sögeresultat sider?
Man kan aldrig med sikkerhed vide om nye filtre lige vil ramme ens eget website, i hvilket omfang og hvornår, men der er ingen tvivl om hvad det er Google vil med disse nye quality guidelines. Og det kan man så vælge at skide på, eller følge. Skider man på det øges risikoprofilen naturligvis. Det må man så leve med 🙂
> Demib, hvis du finder en god kreativ lösning pä problemet, sä blogger du den lige ik?
Der findes ikke en enkelt god løsning på dette. Det afhænger helt af den enkelte virksomhed, markedet og ikke mindst den data der er til rådighed. Men det er klart at der skal tænkes virkeligt kreativt nu. Nytænkning. Og den slags har det med at blive holdt lidt tæt til kropppen, indtil de nye strategier bliver mere bredt kendte 🙂
Stefan Juhl skriver
> Der rög mit firmas grundlag
Hehe, det tror jeg ikke på! Så kan forretningsgrundlaget ikke rigtig have været der på noget tidspunkt…
Jeg vil ikke spørge hvad dit firma præcis går ud på..! Men tag nu f.eks. søge spam, som strider imod Google’s guidelines. Det er stadig et fremragende forretningsgrundlag, hvis man ellers benytter en model der er gearet rigtigt. Man skal selvfølgelig være i stand til at følge med udviklingen…
Hvis du på nuværende tidspunkt har noget der virker, og hvis du er nervøs og desperat, så sige lige til. Det kan da være jeg er interesseret i at købe hvad du nu end har gang i 😉
Men helt ærligt.. Mon ikke bare du skal have justeret lidt på modellen, og så er du forsat fint kørende samt i stand til at sove forholdsvis trygt om natten!
Man behøver jo f.eks. ikke direkte at “fortælle” at ens sider, er søgesider…
Bo Tranberg skriver
Tak for svarene,
Helt pä röven er vi nu ikke, men lad os bare sige, at vores strudse äg ligger i SEO kurven :p og de andre äg minder om agerhöns äg :p
men okay, vores konkurrenter bliver meget härdere ramt (de er ogsä pokkers gode til seo) sä nu mä vi se..
men ved i, om en shop der lister produkter efter nogle synlige og valgbare filtere pä selve shop siden, vil blive betraktet som en sögeresultat side? (efter man har anvendt et filter) sä har man jo pä en mäde, fortaget en sögning…
Mikkel deMib Svendsen skriver
Jeg tror ike der er nogle der kan svare på endnu hvordan disse filtre vil virke. Det må vi vente og se. Men i princippet er det du snakker om jo søgeresultater, så hvis man skal følge googles nye quality guidelines slavisk så bør de nok udelukkes.
Jeg ville nok ikke fjerne sådanne sider lige nu, men vente og se tiden lidt an, samtidig med jeg gik i tænkeboksen for at finde på endnu bedre ting.
Hvis det går helt galt, og Google skulle finde på at udelukke disse, eller flere, sider er jeg ret sikker på at der kan rådes bod på skaderne ved at gennemføre udelukkelsen og bede om en reinclusion.
Det er lidt et spørgsmål om hvilken risikoprofil man kan leve med 🙂
Bimmer skriver
Ossian, hvor ved du det her fra?
> En pæn del af deres besøgende kommer netop via Google og rammer deres søgeresultater.
Dennis Thyme-Duvald skriver
Der må da være mange af de store som får problemer. Jeg tænker på sider som Kelkoo ?
Omvendt kan jeg egentlig godt forstå google. Der er lavet et hav af sider baseret på søgeresultater, og de sælges stadig i en lind strøm i programmer som fx Traffic EQ. Det er på tide at tænke nyt.
Gad vide om spam eksisterer om fx 10 år. Den dag google og de andre kan gennemskue spam realtime kan det vel ikke betale sig længere……
Mikkel deMib Svendsen skriver
> Gad vide om spam eksisterer om fx 10 år.
Spam stopper ikke før man også får stoppet al anden mediemanipulation … sådan ca. aldrig 🙂
Marcel Fuursted skriver
> Der må da være mange af de store som får problemer. Jeg tænker på sider som Kelkoo ?
Ja, og Pixmania og DGS, osv.
Jeg tror nu nok, de finder en løsning. Kunne forestille mig, at de vælger én eller flere af fire løsninger:
– Google AdWords: Google AdWords, som DGS gjorde meget i en periode inden de blev indekseret pænt i søgeresultat-siderne (SERPs)
– Fortsætter med deres nuværende løsning: Ikke ændrer noget og lader som om de ikke aner hvad der foregår – går den så går den. Som Mikkel siger: Det er lidt et spørgsmål om hvilken risikoprofil man kan leve med
– Cloaking: At de ganske enkelt cloaker søgemaskinerne, så de beholder resultatsiderne i forhold til de besøgende, men søgemaskinerne ser noget helt andet
– Bearbejder deres nuværende løsning lidt: Fylder noget mere content på, og gør hvad de kan for at resultat-siderne ikke ser ud som SERPs. Det er mange detaljer der skal laves om (URLs, opbygning, listning, omm.)
DISCLAIMER: Jeg siger selvfølgelig ikke, at dette er de eneste løsninger eller at det giver det ønskede resultat, hverken placeringsmæssigt eller konverteringsmæssigt 😀
Magnus Bang skriver
Er lidt sent ude med kommentar til denne blog, men jeg så lige, at min virksomhed ikke har udelukket søgerobotterne fra at besøge vores dynamiske søgeresultater.
Vi oplevede kræftige fald i google stort set lige efter, at google indførte det nye tiltag – tror du, at det kan være oversagen til vores fald, eller skal vi mere se det som tilfældig udsving. Vores side er kun ca. 1 år gammel, så derfor kan man vel forvente store svingninger.
Mikkel deMib Svendsen skriver
Ja, det mest sandsynlige er naturlige udsving. Men det er svært at sige det når jeg ikke kender sagens detaljer 🙂