Hvad kommunikerer du med din URL?
Som du sikkert ved beskæftiger jeg mig en hel del med store dynamiske websites, content management systemer (CMS), shopping systemer, debatter og blogs – alt det der dynamiske internet-noget …
En grundlæggende del af arbejdet med sådanne systemer handler om at skabe en ordenlig webarkitektur – herunder bl.a. den præcise udforming af URL’s på websitet. I den forbindelse ser jeg naturligvis mange forslag, eksisterende løsninger, og meget andet. Og det slår mig tit, hvor tåbeligt URLs ofte er opbygget. Det er som om nogle udviklere slet ikke tænker på, at URL’en er synlig for os alle – vi kan læse de tegn der står i den.
Der kan være både brugervenlighedsmæssige og søgemaskinemæssige årsager til at udforme URL’s på forskellige måder. Først og fremmest handler det i begge forhold, at lave URLs der er lette at “afkode” – lette at forstå for både brugere og søgemaskiner.
En URL som denne er let at aflæse:
www.domain.dk/shop/shoes/ecco/men.html
Både brugere og søgemaskiner kan “forstå” eller gætte sig til, at på denne side vil man finde herresko fra ecco til salg. Den er god for både søgemaskiner og mennesker.
Principielt set synes jeg ikke man skal putte informationer i sin URL som ikke gavner brugerne og søgemaskinerne. Som ikke giver mening.
Mange tekniske udviklere betragter URL’en som “deres område” – de kan tillade sig at proppe URL’erne med informationer der gør deres arbejde lettere. Groft sagt. Jeg synes ikke URL’erne skal “ejes” af IT-afdelingen. Det bør være marketing-, kommunikations- og SEO-afdelingen der bestemmer hvordan de skal se ud.
Det vil dine teknikkere sikkert brokke sig over, og måske enda påstå er helt umuligt. Men det passer ikke. Man kan sagtens lave websites, som stort set hele vejen igennem benytter læsevenlige URLs – URLs som ikke er fyldt med alverdens “ligegyldige” informationer. Også selvom websitet er fuldt ud dynamisk. Det tager naturligvis lidt ekstra tid, når de informationer teknikerne er vant til at kunne smide i URL’en pludselige skal “medsendes” på en anden måde, eller URL’en skal omskrives med mod_rewrite (på Apache) eller et ISAPI-rewrite filter (til NT-servere). Men det kan godt lade sig gøre!
Jeg ser som sagt mange eksempler på URL’s som jeg synes er meget skidt skruet sammen. De er ikke svære at finde. Men her kommer et par eksempler på nogle af de typer jeg ser:
www.domain.dk/seo-pages/my-spam-stuff.php
– det er ikke svært at gætte hvad man finder på en sådan en side. Søgemaskinerne kan også godt gætte det 🙂
www.domain.dk/landingpages/produkt-sales-page-22.php
– hvis du skal sælge noget til mig vil det nok være smartere, at være en andelse mere … hmmm “diskret” 🙂
www.domain.dk/biblibx34/cgi/bin/gibberish/pages/files/template.php?csid=1222212
– hvad rager jeres interne filstrktur mig? De mange directory navne giver ingen mening for mig! Og hvad er “template” for noget?
Netbutik.domain.dk/internetbutik/netbutik.php?blablabla=12
– Så beslut jer dog! Skal det være subdomains eller directories??
Og så er der naturligvis de super-lange URLs. De er bare helt håbløse – som f.eks. denne her (som jeg faldt over engang) på 294 tegn!
http://www.broadvision.com/bvsn/bvcom/ep/contentView.do?contentType=
ISD_COMPANY_CONTENT&programId=8280&programPage=%2Fjsp%2
Fwww%2Fbrowse%2Fprogram_general.jsp&contentId=8047&pageTypeId=
8180&channelId=-8243&BV_SessionID=NNNN0561259567.1100450801NNNN&
BV_EngineID=ccccadcmldhellgcefecefedghhdfjl.0
Søren Sprogø skriver
Et rigtigt godt ISAPI-rewrite filter (eller URL rewrite engine som det også kaldes) er dette:
http://www.isapirewrite.com/
Findes oven i købet i en god, gratis-udgave.
Jeg har selv kæmpet en kamp med udviklere for at få dem til at lave gode URL’er. Det er ren og skær dovenskab at de ikke gør det, for det er rent faktisk ikke særligt svært i de fleste tilfælde (har selv udviklet CMS’er med indbygget wellformed URL’er).
Stil det som krav til din leverandør. Og kan de ikke leve op til det er det et godt symptom på at deres system er forældet, og du bør holde dig langt væk fra dem.
Jacob Andersen skriver
Må indrømme at jeg aldrig selv ser på en url udover selve domænenavnet, men derfor kan man jo godt optimere siderne for de brugere der gør, og for søgemaskinerne.
Til udvikling i .net vil jeg anbefale UrlRewriting.NET
http://urlrewriting.net/en/Default.aspx
Mikkel: Det er heldigvis lidt lettere i dag end tidligere i .NET verdenen
Mikkel deMib Svendsen skriver
Ja, URL-rewriting er ikke så svært. Og det har det iøvrigt ikke været i mange år. Jeg var med til at udvikle et af de første ISAPI-rewrite filtre helt tilbage i 97 (ikke på markedet mere).
Men en ting er rewriting – noget andet er hvordan man så rewriter. Selv med omfattende rewriting can du sagtens ende med en fucked up arkitektur. Det ser jeg rigtig tit 🙂
Morten Cramer skriver
Hey Mikkel,
Hvad er din mening om den måde at Microsoft Office 2007 (Moss 2007, SharePoint 2007 eller om man vel cms delen af Microsofts nye værktøj) laver URLs på med hentyn til søgemaskinerne? Og også i det hele taget den måde de har tænkt SEO ind på?
Er der noget man skal være opmærksom på i forhold til sådan en løsning?
Bedste hilsner
Morten
Mikkel deMib Svendsen skriver
Jeg har endnu aldrig nogensinde set løsninger fra Microsoft, der som udgangspunkt var bare i nærheden af at være nmogenlunde acceptable i forhold til søgemaskiner. Deres produkter kan såmænd være udmærket men der skal virkelig laves meget arbejde for at få dem til at fungere i søgemaskinerne.
Microsoft har desværre altid lidt af det samme storhedsvanvid som andre store producenter, f.eks. Broadvision. De har aldrig følt sig nødsaget til at “nedværdige” sig selv til at indpasse sig i den virkelige verden. Deres holding er tilsyneladende “vi ved bedst” – og så må verden indrette sig efter os. I forhold til søgemaskiner sker det bare ikke.
Jeg har lavet masser af løsninger på Microsoft produkter, og særligt .NET platformen er virkelig god og stabil, men som sagt, det kræver en helvedes masse arbejde at få det gjort søgemaskinevenligt.
Jesper skriver
“Microsoft har desværre altid lidt af det samme storhedsvanvid som andre store producenter, f.eks. Broadvision. De har aldrig følt sig nødsaget til at “nedværdige” sig selv til at indpasse sig i den virkelige verden. Deres holding er tilsyneladende “vi ved bedst” – og så må verden indrette sig efter os.
Enig, Mikkel. Det samme kommer til udtryk via Microsoft’s arrogante holdning til W3-valide løsninger.
Mikkel deMib Svendsen skriver
Ja, og det er egentligt ærgeligt, for mange af produkterne fra de store producenter har uomtvisteligt nogle fede features, de er enormt stabile, veldokumenteret osv. Hvis bare de gad at indse, at ders produkter skal bruges i en sammenhæng, hvor de ikke bestemmer alt – f.eks. Nettet, og søgemaskinerne.
Jesper skriver
Apropos produkter fra store producenter.
Jeg overvejer i øjeblikket at skifte fra ASP til ASP.Net – men er lidt tøvende fordi, jeg endnu ikke har fået sat mig ind i hvordan (hvor svært) det er, at dels få .Net til at samspille med W3C-standarderne og dels at få .Net til at blive søgemaskinevenligt.
Jeg har læst at der kan være visse udfordringer i den problematik (og så er det jo Microsoft der har lavet .Net)
Men hvad er din vurdering af .Net – når det kommer til optimerede URLs, W3-validering osv.?
Mikkel deMib Svendsen skriver
På trods af navneligheden er der stort set intet til fælles med ASP og ASP.NET – det er to HELT forskellige ting!
.NET kan sagtens laves lige så søgemaskineoptimeret som alle andre platforme, men det kræver som sagt en helvedes masse arbejde, og der er en masse specifikke .NET problematikker der skal løses.
Problemet med .NET er blandt andet deres “kontroller” og en nærmest perfid fokusering på at bevare state for alle brugere. Men der er meget mere – langt mere end jeg nogensinde får plads til at forklare her i bloggen 🙂
Jesper skriver
Fair nok, Mikkel 🙂
Men må jeg så spørge dig (for at vende tilbage til det oprindelige emne i dette blog-indlæg – URL-kommunikation)…
Jeg har for noget tid siden ændret min filstruktur på mit websted fra querystring-URLs til statiske URLs, men var på det tidspunkt ikke (helt) klar over hvordan man laver kommunikative URLs.
Derfor endte jeg med at lave URLs som denne: http://www.mitwebsted.dk/artikler/1/
Jeg er godt klar over, at den ikke er tilstrækkeligt beskrivende for indholdet, men er det nok til at jeg endnu engang skal ændre mine URLs via en “301 Permanently Moved” eller bør jeg lade mine URLs være som de er?
Mikkel deMib Svendsen skriver
Hvis det virker for dig som det er ville jeg ikke ændre det
Sune Jakobsen skriver
God, sigende og velformuleret artikel om et meget ømt punkt for mange webudviklere. Men hvor har du ret…
Lige så vigtigt er det med sigende title tags, se f.eks. sundhed.dk der udover ulæselige URL’er har den samme title på alle sider hvilket gør bookmarking af individuelle sider helt umulig.
Brian Lund skriver
Det virker som om at URL primært har betydning for brugervenligheden. Men har navngivning af URL en betydning for ranking. Hvor vigtigt er det ift. title, keywords og indhold på siden.
Jeg har et problem med sprogversionering, hvor jeg overvejer at lave engelske URL’er som standard, fordi siderne både skal have en norsk og dansk sprogversion og jeg ønsker ikke 2 seperate URL’er. Men mindre det altså er afgørende for ranking i søgemaskinerne.
Mikkel deMib Svendsen skriver
Udover at URL skal være kort, ikke indeholde en masse vrøvl og ikke have for mange parametre, har den ikke den store betydning for din ranking i søgemaskinerne – men lidt har den. Og nogle gange er det lige præcis det der gør forskellen. Det er summen af alt det “rigtige” du gør der giver det endelige resultat. Så jo mere rigtigt du gør, jo større chancer er der for at du klarer dig godt.
Mathias skriver
Til Jesper
Jeg har lige udviklet et mellemstort site i ASP.NET og optimeret det til Google
Jeg siger dig at det var et sandt helvede til at starte med. Du kan ikke bruge de kontroller og de ting de stiller til rådighed.
Det som man kan med .Net og som er fantastisk er at man kan lave lagdeling i sin applikation og det duer!
Men hold dig fra states og kontroller. Skriv dit eget gridview og prøv eventuelt MVC 3.5 .Net det skulle være SEO venligt.
Anders Runge skriver
@Morten Cramer
SharePoint 2007 eller MOSS håndtere ikke SEO out of the box.
Tilgår du en af dine site collection direkte. Vil du blive redirectet til default siden for site collection’en.
Denne redirection er en 302, og det er ekstremt kritisk for et Web-CMS.
Angående url’erne i SharePoint. Så ryger de ind under Mikkels kommentar angående “hvad rager jeres interne fil struktur mig”.
En publishing url er som standard bygget op som http://domain/pages/content.aspx. Selv SharePoints egen søgealgoritme vægter http://domain/pages/content.aspx lavere end http://domain/content.aspx.
Jeg kunne forsætte sådan i timevis omkring SharePoint og SEO.
MOSS er en platform, og du kan naturligvis selv rette alle disse problemstillinger. Det burde bare håndteres out of the box.