SEO 2.0: Brug ikke XML Sitemaps!
Nu er det tid til en oplæsning af endnu et afsnit fra min bog: SEO 2.0 – denne gang om XML Sitemaps. Det er lidt teknisk, men jeg har forsøgt at forklare tingene så der fleste kan være med.
I dette afsnit vil du få svar på, hvad XML-sitemaps er for noget, om de problemer der kan være forbundet med brugen af dem, og om du overhovedet bør bruge dem.
[audio:https://www.demib.dk/wp-content/uploads/Lydbog1/xml-sitemaps.mp3] Download denne podcast
Dette afsnit er faktisk et meget godt eksempel på hvad det er du får med SEO 2.0 – mere detaljerede og dybdegående forklaringer på tingene, end de fleste andre SEO bøger giver.
Spørgsmålet om XML-sitemaps kunne i princippet have været forklaret på under en side – ja, måske endda i en enkelt linie: Lad være med at bruge XML-sitemaps! Så hvis du kun er ude efter sådan et go/no-go svar – uden forklaringer på hvorfor jeg anbefaler, som jeg gør, så skal du ikke spilde tiden på ovenstående oplæsning. Så kan du bare lade være med at bruge XML-sitemaps og glemme alt om det 🙂
Bogen SEO 2.0 er i høj grad skrevet for dem, der godt lige gider at læse et par sider mere for at forstå ikke bare hvad det kan anbefales at gøre – men også hvorfor.
Min erfaring er, at man opnår nogle meget mere stabile SEO strategier, og gør det lettere, at tilpasse sin optimering, når der sker ændringer i markedet, tekniske muligheder opstår eller søgemaskinerne opdaterer deres guidelines, hvis man forstår de korrekte årsager til, hvorfor tingene sker.
Hvis du er interesseret i mere af den slags mere dybdegående viden om SEO, så kan jeg naturligvis – som altid, anbefale at du køber bogen SEO 2.0 – den findes i både en trykt og en elektronisk version, der indholdsmæssigt er så godt som identiske (bortset fra stikordsregistret, der ikke er i den trykte version).
Emil Blücher skriver
Ej hvor sjovt! Jeg bloggede så sent som i går morges klokken 9:00 om samme emne på: http://emil-blucher.dk/blog/xml-sitemaps-er-bjoernetjeneste
Jeg syntes efterhånden også at det sker tit, at jeg har et halvfærdigt blogindlæg klar under kladder, som så aldrig når at blive udgivet fordi at der inden for et par dage, er en anden der når at blogge for mig
Mon der er andre der jævnligt oplever det samme?
Mikkel deMib Svendsen skriver
Ja, man skal ikke lade sine gode ideer ligge og samle støv for længe 🙂
Peter Munkholm skriver
Vedligehold nu bare de sitemaps ordentligt. Gør man det forkert kan det skade, det er helt klart. Jeg kan ikke genkende nogen af dine kritik punkter Mikkel, ud over, hvis man ikke sortere i sit sitemap og bare hovedløst submitter ALT. Jeg har langt fra alle sider i mit xml sitemap. Men min klare erfaring er at jeg kan tvinge Googles deep crawler eller struktur crawler forbi sitet, med hyppigere frekvens end uden sitemap.
En anden rigtig cool ting er at jeg kan få content crawleren rigtig hurtigt ind på nyheder, ved at submitte mit nyheds RSS feed til Googles Webmastertools. Så bare et tip der 😉
http://www.youtube.com/watch?v=k8PQ3nNCYuU
http://www.youtube.com/watch?v=hi5DGOu1uA0
Det er fint at du er en populær SEO mand i DK og har skrevet en tyk bog. Men jeg syntes måske ikke det er helt fint i kanten, at du vejleder folk, på det her spinkle grundlag?
Men nu syntes jeg dine læsere skal se Matt Cutts videoerne og bedømme selv.
Vi kunne jo også kigge lidt på andre eksperters råd, der faktisk har brugt analyser og data til at verificere deres theser. http://www.seomoz.org/blog/do-sitemaps-effect-crawlers
Så op med sitemappet igen, og glem ikke at vedligeholde det og være selectiv med hvad du putter i det. Specielt hvis du har med nyhedssider og blogs at gøre.
Mikkel deMib Svendsen skriver
> kan ikke genkende nogen af dine kritik punkter Mikkel,
1) At du måske ikke har oplevet eksempler på langsommere indeksering, som og flere andre kollegaer har, er fair nok – men det er nu altså sandt. Dermed må man sige at der faktisk ER en risiko – uanset hvor stor eller lille den så er.
2) At alle søgemaskiner er ekstremt link-fokuserede er et uomtvisteligt faktum. Kan de ikke via links fra dit website og helst også andre websites, finde frem til bestemte sider på dit website, så VIL de altså have en langt mindre chance for at ranke. Ved at bruge XML-sitemaps kan du meget let komme til at dække over linkproblemer, som du derved ikke får opdaget og fikset. Jeg kan ikke lige forstå, hvori det svære ved at genkende denne kritik ligger …?
3) Teorien om at sider søgemaskinerne finder selv vægtes højere – frem for dem der proppes ned i halsen på dem (via tilmeld URL eller XML-sitemaps) er så velunderbygget som den slags kan blive – og har været udbredt så længe jeg kan huske (i hvert fald de sidste 8-10 år) blandt rigtig mange af mine dygtige kollegaer. Jeg deler den selv. Du kan så vælge at være uenig i dette, men jeg kan ikke se hvad der er så svært ved at forstå dette argument mod XML-sitemaps
4) XML-sitemaps ER lavet for at hjælp søgemaskinerne – det er IKKE et marketingprogram, lavet for at skabe mere trafik og forretning til websites. Google forsøger meget ofte at “sælge” deres tiltag med budskaber om hvor godt det er for webmasterne. Men historien har bare vist, at deres fokus naturligvis ligger på deres egen forretning – ikke vores, og at deres “gode råd” nogle gange skader VORES forretninger mere end det gavner. Det svarer meget godt til “bankrådgivere”, som historien efterhånden har overbevist de fleste om tænker mere på bankens økonomi frem for kundernes. Hvis du vælger blindt at stole på det søgemaskinerne siger, så lever du livet farligt. Hvad er der så svært ved at forstå det? 🙂
5) Du kan opnå lynende hurtig indeksering – og perfekt indeksering af kæmpe store sites (det største jeg har arbejdet med lancerede med over 1,2 milliarder sider – uden XML-sitemaps!) uden brug af XML-sitemaps. Det er altså et faktum der er svært at komme udenom. Hvis du har en optimal arkitektur og en god linkudvikling, så opnår du den maksimale crawling og indekseringshastighed helt ned til få sekunder i dag. Det kan brug af XML-sitemaps ikke gøre hurtigere. Betvivler du at dette er rigtigt eller har du bare ikke oplevet dette selv?
> Men jeg syntes måske ikke det er helt fint i kanten, at du vejleder folk, på det her spinkle grundlag?
Det er på ingen måde et spinkelt grundlag. Det er simpelt hen noget vrøvl. Alle mine kritikpunkter bygger på mine mange års intesive arbejde og erfaring med de her ting. Og der er erfaringer som jeg løbende – gennem alle mine år i branchen, har udvekslet og debatteret med mine dygtige kollegaer i hele verden.
Vi er naturligvis ikke altid enige om alle detaljer – men i hvilken branche er eksperter det?
Men mine holdinger og erfaring værdsættes ikke desto mindre af de fleste af dem “der er noget ved musikken” indenfor søgemaskiner og SEO. Spørg selv rundt omkring 🙂
Jeg skal i øvrigt til London senere på måneden og holde foredrag om netop XML og SEO i dette måned på konferencen SES. De mener nemlig også, at min erfaring og holdinger er værd at høre på.
Rosenstand skriver
Hej Mikkel
Jeg er i store træk enig i de problemstillinger, du nævner med XML sitemaps – jeg er nok knapt så firkantet i udtrykket. Men basalt set enig.
Men hvorfor bruger du egentlig XML sitemap her på bloggen? https://www.demib.dk/sitemap.xml
Det er ren nysgerrighed – jeg tester selv en smule på mit eget website med XML sitemaps, så det er ikke for at drille dig. Det undrer mig bare, når du er så stejlt imod dem?
God weekend.
Mikkel deMib Svendsen skriver
> Men hvorfor bruger du egentlig XML sitemap her på bloggen?
Det er en fejl – desværre en ud af mange 🙂
deMib.dk har længe stået overfor en alvorlig overhaling – der er rigtig mange ting jeg bør få ændret og opdateret. Men der er jo lige det med tiden, når der er så mange andre ting der hele tiden får højere prioritet hehe
Rosenstand skriver
Den kender jeg godt – skomagerbørn og alt det der. I øvrigt oplevede jeg for nyligt dette:
Et site performede ganske OK i et par år i Google. Ejeren lavede og tilmeldte et XML sitemap – og rankingen gik helt ad Pommern til.
Forklaring: Google “opdagede” store mængder duplicate content, de ikek tidligere havde fundet og dermed indekseret. Via XML sitemappet fik den kendskab til det – og det tog næsten fire måneder at hale sitet “hjem” igen.
Jeg siger altid: Du skal absolut uigendriveligt sikker på, at dit site kan crawles frit, og du skal ikke have fejl på sitet af ngen art, hvis du skal bruge XML sitemaps. Og hvis du har styr på de dele – hvorfor så bruge det?
Mikkel deMib Svendsen skriver
> Og hvis du har styr på de dele – hvorfor så bruge det?
Netop!
Og når man så dertil ligger de – om muligt små – øvrige risici faktorer der kan være, bliver resultatet altså negativt på min evalueringsskala.
Det eneste tilfælde jeg har oplevet at XML-sitemaps kan være brugbart er ved flytning af store sites fra en struktur til en anden. Men så er det kun i overgangsperioden at det bruges. Når flytningen er vel overstået, droppes XML-sitemap’et igen.
Det er muligt man kan finde andre, mere obskure, situationer hvor XML-sitemnaps kan være anvendeligt også – i en midlertidig periode. Men i det store hele er den bedste anbefaling ikke at bruge det.
René skriver
Generelt fraråder jeg altid brug at xml sitemaps, grunden er det let bliver en sovepude, hvis sitet ikke kan gennemcrawles med traditionelle metoder, ved at fokusere på en korrekt linkstruktur, og forfølge denne minutiøst ved selv at gennemcrawle sit eget site i testfaser, enten anvende et købt program eller skrive et søgemaskinescript der indekserer og crawler sit website, her kan der beregnes interne linkværdier i forhold til de enkelte sider.
Vi har haft en del kunder igennem tiden hvor de har et xml sitemap, og når vi kører vores Google søgemaskine attrap igennem, opstår der problemer mange steder, “disse steder, og disse filer” vil typisk lande i Googles supplerende indeks, tidligere viste Google de filer der havnede her til brugerne, med en markering under de filer der var placeret i dette indeks, det er ikke et GODT sted at lande og opholde sig, de filer der ligger i supplerende index har Google svært ved at placere, og finde den korrekte vægtning på, derfor den dårlige placering i søgeresultaterne.
Sovepuden er, at filerne vises i resultatlisten, men de ranker ikke på selv elementære ord og ordstillinger. Fejlsøgning besværliggøres, da filerne tilsyneladende er indekseret, men ikke ranker på søgetermen.
Ved blindt at anvende xml maps besværliggøres fejlsøgningen.
Hvis man tror det tager længere tid at indeksere sider på Google uden xml maps, tager man fejl, det tager i gennemsnit ca. 10 sekunder til 1 minut at få indekseret sider og websteder, også sider der efterfølgende ranker på side 1. med den rigtige teknik.
Kristian skriver
Det var godt nok et spændende indlæg og jeg føler at jeg er blevet en del klogere, men der er nu en ting jeg er blevet i tvivl om.
Jeg bruger Google XML Sitemaps Generator plugin til min blog og den virker ganske fint, men hvad vil der ske hvis jeg bare vælger at deaktivere den? Hvad vil der ske med det sitemap som allerede ligger inde ved google?
Mikkel deMib Svendsen skriver
Du skal nok manuelt slette det sitemap der er lavet fra din webserver.
Derudover er det nok en god ide at afmelde det via Google Webmaster Tools.
Peter Munkholm skriver
Nu er der jo ingen der har sagt at alt hvad du siger er forkert. Men omvendt, så er det jo heldigvis heller ikke hvor man siger noget, til hvor mange, eller hvem der lytter, der gør noget sandt eller rigtigt. Bare fordi man er blevet stillet op på en høj skammel, så betyder det ikke at man taler endegyldig sandhed 😉
Links var rigtig fedt engang, men de mister til stadighed værdi fordi, stort set de eneste der bruger dem i flæng, er link-buildere. De links der betyder noget kommer i stigende grad fra blog poster, nyheder og især twitter indlæg. Google indrømmer selv at de har ringe styr på de referencer. Site links har stadig en værdig, men den er kraftigt faldende.
Der er mange ændringer på vej, og der er ingen tvivl om, at udviklingen indenfor SEO går hurtigere end nogensiden.
Anyway, dit sitemap har ingen effekt på hvor højt dine sider er placeret i SERPs. Det kan være direkte skadeligt for nye sites, fordi som Mikkel siger, så kan der gå længere tid før søgemaskinerne indeksere dele af dit site. Men for blogs og nyhedssider med breaking news eller generelt sites der ofte genererer nye URLer, der er sitemap guld.
Mikkel deMib Svendsen skriver
Hvis du virkelig mener at links spiller en mindre rolle i dag, så siger jeg bare held og lykke til med din SEO 🙂
Kristian skriver
Tak for dit svar Mikkel, det vil jeg prøve.
Quaero skriver
Jeg har for nogle år tilbage forsøgt mig med XML-sitemaps på et enkelt websted, som allerede på det tidspunkt rangede ganske udmærket.
Efter tilføjelsen af et sitemap.xml til Google’s WMT bemærkede jeg at antallet af besøgende faldt markant og det samlede antal af indekserede websider var meget ustabilt.
Hvad faldet helt præcist skyldtes fandt jeg aldrig en egentlig forklaring på, men efter omkring 14 dage slettede jeg XML-sitemap’et fra serveren (og afmeldte det i WMT), hvorefter antallet af besøgende og de indekserede sider gik op igen.
Jeg er enig med dem, der mener at hvis blot webstedet har en logisk struktur og webstedet ikke har væsentlige fejl og mangler, så er der ikke behov for at benytte XML-sitemaps.
Chrisss skriver
I starten havde jeg et automatisk xml sitemap sat op til min Magento shop. Efter et stykke tid begyndte der at dukke nogle meget mærklige url’er op i google.
Det tog mig meget lang tid at finde ud af hvor de kom fra. Det skyldes at min automatiske xml sitemap plugin pludselig havde tilføjet disse mærklige url’er og dermed skabte DC.
Derfor slettede jeg hurtige mit xml sitemap og deaktiverede det automatiske xml plugin. Efter et par dage var alt i den skønneste orden igen. Jeg fortrækker at have fuld kontrol over min indeksering og det mistede jeg ved det automatisk generede xml sitemap.
[citat – Mikkel]Ved at bruge XML-sitemaps kan du meget let komme til at dække over linkproblemer, som du derved ikke får opdaget og fikset.[citat slut]
Dette synes jeg er det primære argument for ikke at benytte xml sitemap. Som Rosenstand forklarer det i sin bog, så kan man tage en pille mod hovedpine, men det løser ikke problemet der forårsagede hovedpinen.
Michael Lonning skriver
Spændende artikel og debat.
Nu er det jo et stykke tid siden tråden kørte; er situationen den samme i dag, og er der evt. nye interessante ting at tage højde for?
Sergej Malinovski skriver
Jeg vil også gerne høre om der er sket nogle ændringer siden 2010. Hvad vil du anbefale i dag?
Peter Munkholm skriver
Det er ikke rigtig ændret.
Google Sitemap får stadig siderne i sitemappet hurtigere indexeret, men dem man “glemmer” kan ryge helt ud. Så selvfølgelig manipulere man ikke xml filen, men smider plot alle sider i.
For nye sites er det effektivt til at få de første sider hurtigere på Google. Men ikke så effektivt som f.eks. diverse XML-RPC services.
Sites, der ikke får nye sider eller bliver udvidet. Bare glem dit xml sitemap.
Ofte opdaterede side er sitemaps en god ting, hvis du har styr på det! Ligesom en cykel er hurtigere end at løbe, hvis du ellers har lært at cykle 🙂
Mikkel deMib Svendsen skriver
Peter, det lyder som om du stadig ikke helt har lært at arbejde med links og sociale medier :)F
For nej, der er ikke så meget der har ændret sig i forhold til XML-sitemaps – man bør stadig afholde sig fra at bruge dem (i langt de fleste tilfælde), hvis man vil have de bedste resultater i søgemaskinerne.
– Indeksering kan du stadig opnå hurtigere uden XML-sitemaps
– Du undgår at skygge for problemer, du ellers ikke ville se
– Du undgår et ekstra kompleksitetslag, som ikke gavner, men kan skade