Big Daddy kaos fra Google
Google seneste nye version af deres indeks og den store opdatering kaldet “[tag]Big Daddy[/tag]”, har skabt mange frustrationer og fostret mange diskussioner rundt omkring på Nettet. Det virker ærlig talt somom der er gået noget helt galt for Google med denne opdatering. Mange har ikke mærket noget som helst, som med så mange andre opdateringer, men andre har oplevet meget dramtiske forandringer.
Jeg har personligt oplevet mange lidt underlige ting efter Google’s Big Daddy update. F.eks. har jeg set en hel masse temmelig “crappy” websites, som tilsyneladende blev smidt ud i januar/feruar i år pludselig vende tilbage – med fuld PageRank og det hele! Og indholdet er stadig præcis det samme crappy indhold som der hele tiden har været, og som jeg vil tro var det der fik disse sider til at forsvinde i første omgang.
Og nej, du får ikke noget link til disse sider, af den logiske årsag af en lille del af de crap jeg har kigget på er mine egne tests – og dem annoncerer jeg ikke offentligt 🙂 Så du må selv finde dem … (og, der er ingen rund til NÅR du finder dem at poste et link her og spørge om det er mine – jeg svarer nemlig slet ikke på spørgsmål om igangværende egne tests. Ever)
Jeg har også oplevet en anden meget klar tendens efter Big Daddy: Værdien af gamle veletablerede domæner på deres subdomæner er enorm! Jeg kan ikke huske at der nogensinde tidligere har været SÅ meget værdi i subdomains under kendte 2nd level domæner. Dette grovudnytter bl.a. eBay i Frankrig for tiden, som du f.eks. kan se af et godt eksempel på SEO Black Hat.
Og jeg vil da sige ligesom SEO Black Hat: Skulle der være nogle store – RIGTIG, store danske brands og domæner som gerne vil tjene nogle hurtige penge på deres prominente domæner, så giv mig et ring – jeg er sikker på vi begge kan lave en god klat penge… Og du skal ikke engang betale mig for det – den slags laver jeg på ren revenue share 🙂
Pind skriver
Du har tidligere talt imod at bruge google analysis, da dette giver google en masse informationer om brugeradfærd mv., som man måske ikke ønsker de skal vide.
Gælder dette også programmer som Picasa til billedvisning og google desktopsearch?
Mikkel deMib Svendsen skriver
Jeg har ingen erfaring med Picasa, så der må jeg blive dig svar skyldig.
I forhold til Google desktop search er det meget muligt de samler endnu flere informationer ind om vi færden og laden, men det gør de også voa Toolbaren. PErsonligt er jeg, omend kritisk, ikke så bange for den form for annonym data – det er ikke noget der går ud over min forretning. Min forretning kan derimod blive meget mere direkte skadet af de info Google får via Analytics, så det holder jeg mig fortsat fra.
pind skriver
Hej.
Jeg har et spørgsmål vedr. brugen subdomæner:
Er det bedre i forhold til hurtig indexering i Google, at splitte fx. 3000 sider på et domæne op i 300 sider på 10 subdomæner (under forudsætning af at linkstrategien mellem domænerne er på plads, så google kan finde siderne)?
3000 sider eller mere på en gang kan være en stor bid for googlebot. Jeg har oplevet at googlebot nægter at indexere siderne når der laves for mange på en gang.
Det var derfor jeg tænkte på at bruge subdomæner.
Mikkel deMib Svendsen skriver
Nej, med kun 3000 sider ville jeg ikke gøre det. 3000 sider er stadig et forholdsvis lille site, men det er natrligvis en smagssag
pind skriver
Men er det ikke lidt voldsomt at publisere 3000 sider på en gang?
Eller er der andre årsager til at google først indexerer alle siderne, for derefter at fjerne 3/4 af siderne fra indexet igen (og siderne er ikke kommet med igen efte rflere måneder)
Mikkel deMib Svendsen skriver
Nej, som sagt er 3000 sider ikke i sig selv et problem. Jeg har arbejdet med optimeringen af et amerikansk website med over 60 millioner sider – der valgte vi at “frigive” siderne til søgemaskinerne i etaper.
Hvis du har problemer med indekseringen kan det skyldes mange ting. Hundrede af forskellige ting, og det er umuligt at sige præcis hvad det er uden at se nærmere på den konkrete sag.
pind skriver
60 milioner…….du skrev vel ikke selv tekst til alle siderne….?
Jeg har læst på Matt Cutts blog, at google efter BigDaddy lægger en del vægt på indgående links og udgående links i forhold til hvor mange sider der bliver indexeret.
På den måde er det vel blevet svært for sider med kun få indgående links at blive indexeret ordentligt. Samtidig er det – ifølge Matt – også vigtigt ikke at linke til irrelevante sider i forhold til at blive indexeret.
Det er interessant hvis dette er tilfældet. Disse parametre har vel længe haft betydning for placeringen i søgelisterne, men ikke for selve indexeringen.
Er det også din opfattelse, at det er vigtigt med gode indgående links (og undgå dårlige udgående links)for at blive indexeret ordentligt, eller er det bare noget Matt skal sige som Googlemand?
Samtidig vil jeg høre, om en url med ….index.php?option=com_content&task=view&id=69&catid=68… er noget problem for indexeringen, da jeg ellers må bruge en url rewriter?
Mikkel deMib Svendsen skriver
Der er ikke så meget nyy i det Matt Cutts siger. Hans og Googles holding til eksterne links er hyklerisk – men vil du følge og føje dem 100% skal du bruge NOFOLLOW på alle udgpende links. Til grin, efter min mening. Det er dem selv der har gjort at links værdisættes – nu vil de gerne have “resat” Internettet. Fjolser.
Jeg ville nok vælge at omskrive en URL med så mange parametre som din. Men har du problemer med indekseringen nu? Hvis ikke, så lad det være. Det er sjældent en god id e at fixe noget der ikke er galt …