Over-optimering af hjemmesider

Over-optimering af hjemmesider

Dette bliver et relativt kort indlæg. Google er i disse dage i gang med at rulle forskellige ændringer ud (intet nyt i det) og har du været med i SEO-spillet længe, så har du muligvis brugt en masse forskellige “taktikker” der har virket fint tidligere. Mange af dem ser nu ud til at kunne få dit site til at ranke dårligere og derfor vil jeg anbefale dig at se nedenstående video fra SEOmoz.

Mange har en holdning til Rand, men personligt kan jeg godt lide hans måde at præsentere på. Han er muligvis lidt mere “hellig” end godt er, men når man er sådan en offentlig figur som ham, så kan jeg godt forstå det.

Er din side blevet ramt og dine rankings faldet eller er du bange for at det kommer til at ske, så følg de 6 råd du får i denne video.

Når du så er færdig med videoen, så vil jeg lige give dig et link til en lidt ældre artikel omkring vigtigheden af variation i dine links. Den er skrevet for over et år siden af Henrik Bondtofte (CEO hos JustSearch) og forklarer rigtig godt hvorfor og hvordan du bør variere dine links. I disse tider er det langt vigtigere end det har været før.

Kommentarer

  1. skriver

    Hver gang Rand Fishkin eller Matt Cutts udtaler sig om ændringer i Google, skal man altid huske følgende: “Until you have data that backs up Google’s claims, it’s better to not make a move.”.

    Det er fint nok at lytte til dem, men det er dumt at ændre hele sin tilgang til SEO, bare fordi de to (eller andre for den sags skyld) siger noget.

    Vent til DU ser beviser.

    http://blog.iacquire.com/2012/04/10/googles-2012-phishing-expedition/

  2. Mikael skriver

    Det kan jeg kun være helt enig i Frederik. Det gælder dog uanset hvem der udtaler sig og ikke kun de to herrer.

    Omvendt så vil jeg alligevel mene, at meget af det Rand siger I videoen giver fin mening. Har man baseret sin SEO på “webspam” (hvis vi skal bruge samme terminologi), så bør man efter min mening allerede nu begynde at overveje hvordan man kan komme videre på en bedre og mere legitim måde.

    Jeg synes selv at have set nok “beviser” til at kunne danne mig et indblik i hvorfor nogle sider er blevet ramt og det interessante bliver nu og der kan skabes en fornuftig ændring ved at gøre nogle af de ting Rand nævner.

    Blot af ren nysgerrighed… Er der nogle af de ting Rand er inde på som du er uenig i?

    Mvh
    Mikael

  3. skriver

    Følgende kommentar blev lidt længere end jeg havde regnet med, men her kommer den.

    Hele denne “over-optimized websites penalty” giver jeg ikke så meget for. Jeg er godt klar over hvorfor de kalder det over-optimization og det er da også et intelligent træk af Google. Men hvis man ejer en hjemmeside, eller arbejder med SEO, så skal man altså ikke gå ud og tro at man skal gøre nogle af sine titler dårligere eller måske tilføje noget bevidst duplicate content for ikke at fremstå for perfekt.

    Generelt så kan jeg ikke lide Rand Fiskins måde at prædike på.
    http://www.seomoz.org/blog/article-marketing-mostly-a-scam-whiteboard-friday#jtc151803

    Når han snakker får jeg ofte associationer til de religiøse amerikanere der står og råber hallelujah og gejler hinanden op:

    “But before this penalty hits, for goodness sake, SEO folks, let’s make these changes to our websites because we could be in real trouble if we don’t impact these things beforehand.”

    Mht. de konkrete ting Rand nævner i videoen, så er det meste jo ikke ligefrem banebrydende information han kommer med. Det er jo bare generelle “white hat seo best practices”. Når Google annoncerer deres næste større opdatering, så kunne han hive de samme punkter frem og sige at nu er det blevet ENDNU vigtigere. Dermed ikke sagt, at jeg ikke forstår hvorfor Rand gør det. Hans forretning fungerer jo kun så længe han kan overbevise folk om at der hele tiden er nyt at lære om SEO.

    1. “…your titles need to be authentic. They need to sound real.”
    2. “…manipulative internal links.”
    3. “…link filled footers.”

    Hvis jeg kunne indsætte et billede her, så havde der været et billede af en hvid ugle ved navn ORLY.

    4. “…text content blocks built primarily for the engines.”

    Dette punkt kan jeg være lidt uenig med ham i, men for at være helt ærlig så er jeg ikke sikker på, at jeg ved, hvad han mener. Hvis han tænker på eksemplet i seneste indlæg på Insidesearch.blogspot.com, så han han da ret. LINK: http://insidesearch.blogspot.com/2012/04/another-step-to-reward-high-quality.html

    Men jeg ved også at jeg sagtens kan ranke på tekst som ikke havde givet mange roser i gymnasiet (eller folkeskolen). Og splogs af dårlig kvalitet ser da også ud til at virke endnu – ellers så er der i hvert fald en del bureauer derude, som skal til at overveje kraftigt, hvad de laver :)

    5. “…I’ve talked about article marketing in the past” – “…whether it’s this penalty or a penalty that Google makes in the future, that this is the kind of stuff that gets hit.”

    Det tror jeg næppe. Hvis man tænker sig om, så vil jeg påstå, at article marketing kommer til at fungere fremragende langt ud i fremtiden.

    6. “…large amounts of pages that are targeting very similar, kind of modified versions of keywords and keyword intents, with only slight variations, slight variation being the key here.”

    Han mener altså det er dumt at kannibalisere sine egne sider? Det synes jeg altid det har været.

  4. Mikael skriver

    Først og fremmest tak for den meget udførlige kommentar. Det var langt over forventning.

    Hvis der er nogen der tror de direkte skal gå ud og “skade” deres sider, så synes jeg den opfattelse må sige mere om dem end om Google. :)

    At du (og mange andre) ikke bruger sig om Rand og “den amerikanske måde at være på”, kan jeg ikke sige så meget til. Det er et spørgsmål om smag og personligt kan jeg gode lide den. Jeg er dog ikke blind overfor, at den slags ikke bliver godt modtaget hos mange danskere.

    Jeg kan heller ikke være uenig i, at de ting han siger hverken er nye eller banebrydende og slet ikke for sådan nogen som dig og mig. MEN det ændrer ikke på de fakta at:

    - Mange ikke ved at det er sådan man bør gøre
    - Mange ikke gør det (og derfor nu oplever effekten)

    Så videoen er efter min mening i høj grad relevant for alle dem. Skulle der sidde SEO’er derude som måske har været for kreative, så kan den også bruges som en reminder.

    Nu kan jeg tage fejl, men som jeg forstår Rand er “article marketing” det samme som at benytte BMR, spun content og lignende metoder. I længden tror jeg ikke på at de vil holde.

    Taler vi derimod om article marketing i form af gæsteartikler på relevante sider (med læsere), så er jeg sikker på at han også mener at det er vejen frem.

    Og ja kannibalisering af sine egne sider er dumt. Der er dog stadig tusindvis der gør det, så jeg synes en reminder er på sin plads. :)

  5. skriver

    Jeg har flere gange på Google+ argumenteret for at en stor del af det Google har gang i er “scare tactics” (de ting der er sket indenfor den seneste måned, både de opdateringer der er sket og de udmeldinger der er kommet). For det første melder de ud lang tid i forvejen at de ønsker at lave denne update, det er som regel noget de gør når de ønsker at webmastere skal adfærdsreguleres på forhånd, for det andet så er der indtil videre ikke noget der tilsiger at kvaliteten af SERPS er blevet bedre, kun anderledes.

    Google er altså udkommet med en algoritmisk ændring som har betydet ændrede resultater, men at der er sket en ændring betyder ikke de er blevet bedre til at bekæmpe webspam, bare at de har lavet en opdatering af algoritmen som ændrer SERPS.

    Denne opdatering bruger de så til adfærdsregulere diverse webmastere med, som tror at alle mulige er blevet “straffet” for diverse ting. Det kan sagtens være at nogle er blevet straffet for helt åbenlyse overtrædelser af Googles retningslinjer, men overvej om Google ikke også bruger så stor en ændring til blot at skræmme folk til at gøre det bedre end de gør og give offentligheden et indtryk af at mange er “ramt” (?).

    Omkring Rand så er han bare en Player med stort P :) Jeg kan godt lide hans stil, omend det ikke er alle hans “whitehat tricks” jeg lytter til :D

  6. Mikael skriver

    @Thomas,

    Er helt enig i:

    Google er altså udkommet med en algoritmisk ændring som har betydet ændrede resultater, men at der er sket en ændring betyder ikke de er blevet bedre til at bekæmpe webspam, bare at de har lavet en opdatering af algoritmen som ændrer SERPS.

    Uden at gå i detaljer har jeg kendskab til mange der er blevet ramt og også (med stor sandsynlighed) hvorfor de er blevet det. Det har i høj grad været pga. kvaliteten og mængden af dårlige links og derfor mener jeg, at Google med Penguin har fået lukket nogle af de store huller der har været.

    Der er stadig masser tilbage og talrige eksempler på dårlige serps resultater, men det er et skridt i den rigtige retning.

    Man kan lidt frækt sige, at har man ikke selv et (test)site der er blevet ramt, så presser man ikke citronen nok :)

  7. skriver

    @Mikael

    Men en ting er at du har kendskab til at nogle er ramt, men har du også tjekket at SERP for de pågældende søgeord er blevet bedre? er der mindre webspam nu i de resultater eller er de bare ændret (uden en kvalitetsforbedring)?

    Der kan sagtens være sket en forbedring, men indtil videre har jeg ikke set en grundig analyse på netop før og nu kvalitet. Men det kommer nok en af dagene (for .com).

  8. Mikael skriver

    @Thomas – Jeg har kun lavet nogle enkelte undersøgelser (danske nicher) og der er resultaterne ikke blevet bedre. Jeg vil næste mene at de er blevet værre.

    Når det så er sagt, så kan jeg havde ramt uheldigt. Jeg har taget for få stikprøver til at kunne udtale mig om resultaterne generelt er blevet bedre eller dårligere.

    Derudover skal vi lige holde tungen lige i munden. Webspam (Penguin) vs. sidens kvalitet (Panda) er to forskellige ting. Så at Penguin har fjernet sider fra SERP er ikke ensbetydende med at kvaliteten af de tilbageværende sider er blevet højere.

  9. skriver

    @Mikael

    Vi er måske ude i lidt definitions-spørgsmål, men jeg synes diskussionen er interessant.

    Hvis Penguin skal fjerne (og har fjernet) webspam så skulle kvaliteten af SERPS da meget gerne være gået op, med mindre det er erstattet af andet webspam (webspam i googles øjne).

    Men som jeg har forstået det har målet også været at fjerne værdi fra links i webspam, altså links fra eksempelvis spundne artikler, dette kan også gøres, men algoritmisk kan man nok kun identificere de dårligste spundne artikler.

    Hvis der er fjernet værdi fra spamlinks er sites blevet dårligere ranket af den grund, hvilket jo ikke nødvendigvis betyder de er erstattet af bedre sites. Dette vil være den logiske forklaring på at vi muligvis ikke ser en kvalitetsforbedring, men derimod blot ser en ændring på en del søgeord.

    Jeg håber virkelig at jeg får tid til at læse en masse artikler om emnet i weekenden. Jeg har kun skæmmet nogle få artikler indtil videre og har allerede bookmarked en del til senere læsning :)

  10. Mikael skriver

    @Thomas,

    Som jeg har forstået det, så handler Penguin ganske rigtig om webspam. Altså at fjerne værdien fra dårlige links mv. Alt sammen noget der sker “offsite”.

    Derfor er jeg enig i det du skriver med, at kvaliteten ikke nødvendigvis er blevet bedre. Nu kan det blot være at side 1 fyldes af dårlig kvalitet som ikke har indgående links mv. som er blevet fanget i algoritmen. I teorien kan et “godt” site med mange dårlige indkommende links nu blive udkonkurreret af et “dårligt” site med bedre indkommende links.

    Eller det er i hvert fald sådan jeg har forstået det.

    At Pandaen så skulle fjerne den dårlige onsite side fra SERP er noget andet :)

  11. skriver

    Vi er helt enige :)

    Omkring spam/spinnerartikler håber jeg snart at kunne søsætte mit store spinnerforsøg. Jeg har været i gang med at lave den ultimative spinnerartikel som er på 700 ord. Derefter har jeg manuelt spundet sætninger og ord.

    Problemet er at artikler fra en sådan artikel alle vil være ca samme længe og handle om det samme, men hvor man bruger alle de forskellige ord i hver artikel. Derfor vil jeg efter at have færdiggjort grundspinningen dele den op i 10 forskellige artikler, så syntaksen starter med at vælge hvilken af de 10 versioner der skal bruges som udgangspunkt.

    Hvis f.eks. en syntaks er {SEO|seo|søgemaskineoptimering|google-optimering|optimering til Google} vil jeg i den ene artikel lægge mere vægt på to af ordene så artiklen kommer til at handle mere om det, dog uden at de ordret kommer til at ligne hinanden overhovedet. Et andet eksempel er en artikel hvor jeg hovedsageligt skriver om optimering/seo/etc til Yahoo i stedet for til Google.

    Derudover er der 8 afsnit som bliver brugt forskelligt i de forskellige versioner. Der vil være flere steder hvor der enten vælges større eller mindre afsnit så artikler fylder mellem 350 og 700 ord.

    Målet er for det første at den skal være så god at forskellige versioner kan optages på artikeldatabaser og at de er så forskellige at de kan linke til hinanden fra en masse blogs m.m. uden at blive opdaget.

    Så må vi se om Google fanger den på et tidspunkt eller om jeg kan slippe afsted med det :D

  12. Mikael skriver

    Hvordan vil du konstatere om du bliver “opdaget”?

    Håber du vil dele resultatet med os andre.

  13. skriver

    Målet er i sidste ende at booste en enkelt side som skal ranke på et ord eller en frase med lidt/medium konkurrence. Hvis siden på et tidspunkt falder må det betyde at netværket på den ene eller anden måde giver mindre værdi til hovedsitet.

    Det skal siges at link i artiklerne laver jeg manuelt da der naturligvis ikke kun skal linkes internt i netværket, men også til alle mulige andre sider. Formålet med at dele artiklen op i de minimum 10 versioner er at jeg dermed f.eks. fra en artikel kan linke til noget omkring online markedsføring og Yahoo og samtidig linke til en der handler om SEO-optimering til Google (begge egne artikler der linkes til).

    Selvfølgelig deler jeg resultatet, men der går nok en del måneder før jeg overhovedet noget at dele da jeg ikke engang er færdig med artiklen endnu :)

    Det eneste jeg ikke har besluttet endnu er hvor meget jeg vil gå med livrem og seler. På den ene side tænker jeg at med alt arbejdet burde jeg lave noget som jeg også kan få noget linkjuice ud af på den ene eller den anden måde til andre sider end lige til forsøget. Men på den anden side overvejer jeg at lave det mere farligt og se hvad jeg kan slippe afsted med, dog med risiko for at arbejdet på et tidspunkt viser sig spildt.

    Jeg hælder dog mest til det sidste lige pt :)

  14. skriver

    Googles sidste opdatering, som skulle eliminere webspam, er som tidligere opdateringer ikke perfekt, det bliver den slags opdateringer aldrig.

    Det vil være så godt som umuligt at fjerne spamsider, eller det der hedder overoptimerede websider fra deres indeks.

    Hvis den skulle justere på de indikationer, der peger på webspam mv. så vil der være mange sider, der i Google optik ikke er spam, men når systemet gennemgår websitet automatisk vil ryge i spamkategorien og derved mindste placeringer eller blive udelukket..

    Se bare på mange store internationale websites – og mange CMS systemer, der producerer duplicate content til den store guldmedalje, dette kombineret med andre uhensigtsmæssige faktorer vil kunne De-Ranke et site og få det til at ligne et spamsite. Til sammenligning vil et cloaked website uden duplicate content og opsat efter de rette retningslinjer virke perfekt i forhold til et automatisk filter, da alle disse parametre er i overensstemmelse med forudsætningerne for blive placeret i søgemaskinens indeks.

    Der ligger d.d. mange sites, der er cloaked i Googles indeks og som ikke er berørt af denne opdatering, dette på trods af tekstsammensætninger har været igennem tekst-spinnere og hvor tekststykker ikke har nogen reel sammenhæng i forhold til ordlyd etc. Det eneste der indholdsmæssigt passer sammen på disse sider er tekstmængde, keyword density og sammensætningen af links i forhold til de aktuelle sider – og kombineret med tilpas linkbuilding.

    Rand Fiskin og Matt Cutts fortæller tit folk hvad de skal passe på i forbindelse med optimering.
    Hvis folk udelukkende følger disse gode og sikkert velmenende ord, så risikerer de ikke at have noget organisk trafik, da deres site ikke vil ranke på søgemaskinerne i et konkurrencepræget marked.

    Dermed ikke sagt at et website skal overspammes, men det er vigtigt hele tiden at holde sig for øje, at hvis der skal være organisk trafik, så er det vigtigt at se på hvorledes de konkurrenter, der ranker på de søgeord man ønsker at ranke på er optimeret.
    Med udgangspunkt i dette er der kun en vej, det er at matche de sites.

    Når Google så ryster posen engang imellem, så er der kun en vej, det er at se hvorledes algoritmen påvirker ens website og sammenligne med konkurrenter.

    Med baggrund i dette, så er det at tilpasse sit website efter de aktuelle forhold. Sådan har det været siden søgemaskinernes barndom og det vil ikke ændre sig på fremover.

  15. Anders Nielsen skriver

    Jeg er enig med Frederik i, at Rand Fishkin sådan set bare kommer med en opremsning af “seo white hat best practices”. Personligt kan jeg dog godt lide hans facon – og det produkt seomoz tilbyder. Abonnerer dog ikke pt.

    Problemet med den slags videoer som ovenfor er, at afsenderen, selvom han er ekspert, somregel ikke aner hvordan webmastere med en konkret “pandaliseret” eller “pingviniseret” site kommer ud af deres “bad standing” med Google for det pågældende site.

    I videoer med Matt Cutts er det “vil ikke fortælle”, hvilket selvfølgelig giver god mening.

    Et af mine egne sites (mindre) blev ramt af pingvinen. Overoptimering af url’er, overskrifter mm. kunne sagtens være problemet (har ikke arbejdet med den i mange år, så den er lidt 2005 agtig hvad angår SEO).

    Een ting som Rand måske kunne have nævnt i sin video var, at det kan være problematisk at have for mange beslægtede sites på samme server, hvilket også har været nævnt flere steder.

  16. Erik Hamre skriver

    Diversificering er vejen frem med Google og så sider som kan klare et manuelt review. Ikke at risikoen for et manuelt review er stor, men jeg er slet ikke i tvivl om at Google vil og bliver nødt til at lægge mere vægt på user behavior og reel onsite analyse fremover. Jeg synes ikke resultaterne i Google er blevet væsentlig bedre. Jo nogle steder er mindre sites erstattet med flere brand sites, men det er ikke nødvendigvis en god ting for brugeren. Fx er indholdsrige affiliate sider med gode forbruger artikler jo ikke spam selvom de er kommercielle. Andre søgeresultater er diverse spam blogs som superblog.dk eller xtrablog pludselig dukket op eller gamle og forladte MFA sider. Google har ramt dem de ville, men der var ikke gode nok sites til at erstatte dem. Det vil nok også gå op for dem efter næste kvartals resultat hvor flere pga. af dette flytter fra SEO til Adwords.

    Nå men fakta er at der skal divercificeres på forskellige typer sites med forskellig linkbygning. Fuldstændig som en aktieportefølje. Man kan ‘hedge’ sig ud af problemet med at have sites der teoretisk burde være så forskellige at de reagerer forskelligt på nye updates.

    Jeg kan jo se at denne update ikke er så simpel og at sider jeg troede ville blive ramt gik fri. Jeg har one-pagers der stadig ranker fint. Så det må være en kombination af faktorer som rammer denne gang. Personligt tror jeg det er en blanding af on-page faktorer i form især af ikke bare overoptimerede enkeltsider men sider opbygget efter søgeord som er meget relaterede i Google, men ikke særlig naturlige fx sider opbygget efter Google’s gamle Wonderwheel. Derudover med links fra spinnede artikler, uden tilstrækkelig autoritet fra andre links. Måske en slags total score hvor straffen indtræffer over et vist punkt. Det er vist også sådan Panda har fungeret.

    Google vil nok også tweake lidt på knapperne den næste tid, så effekten vil blive mindre.

    Indtil videre tror jeg det vil være bedst at have fokus på unikke tekster til linkbygning i hvert fald i første led i linkbygningen.

  17. skriver

    Jeg er helt på linje med Rene her. Og et kig på de traditionelt hårdtpumpede branchers søgeresulter post Penguin viser da også, at kvaliteten på ingen måde er forbedret. MFA etc. er stadig højt (i nogle tilfælde højere) placeret. Så ja – det er som så mange gange før: Støvet skal lige lægge sig, og så ser vi, hvad der påvirker hvad.

  18. skriver

    Jeg må indrømme at jeg synes denne her video er lige lyserød nok, selvfølgelig er det ideelt at lave den perfekte hjemmeside som selv henter alle links uden at man skal gøre noget som helst, meeen… :)

  19. Kenneth skriver

    Jeg synes bestemt heller ikke denne Penguin opdate, har fjernet alt det dårlig, synes faktisk at der er dukket mange gamle sider op, som ikke er blevet opdateret længe. Plus mange af de gode sider er forsvundet fra forsiden i google. Kan ikke lade være med at tænke på alle de sider der er forsvundet fra side et i google, om ejerne så er gået over og bruge adwords, mere end de plejer. Det er sikkert ikke en dårlig opdate set fra google økonomiske synspunkt.

  20. Bastian Elnegaard Jørgensen skriver

    Kom denne opdatering overhoved?
    - og er det rigtig forstået at punkt 3 betyder at footer links skal have varierende ankertekst?
    Hvis man linker både fra top og bund til de samme sider?

  21. Mikael skriver

    Hej Bastian. Ja det gjorde den skam. Hvis du ikke har mærket den, så er det kun et godt tegn. Mht. ankertekst, så er det en rigtig god ide at variere den så det virker naturligt.

  22. skriver

    Rigtig god video om hvad man i hvert fald ikke skal gøre i forhold til søgemaskineoptimering. Denne video giver en rigtig god forståelse af blackhat teknikker. Dog er der en ting vi må huske på og det er, at der ikke rigtig er nogen der kender Googles algoritmer. Men jeg mener, at “gæste blogging” og “sociale medier” er vejen frem i 2013. Selvfølgelig skal der også være variation i anchor tekst i det link building man ikke slipper helt uden om at lave. Her er det bare vigtigt man ikke producere og producere. Da Google straks vil tænke “det er da besynderligt at dette website får backlinks dag ind og dag ud” Så jeg vil anbefale: Variation, sociale medier, undgå “duplicate content”. Producere kvalitets artikler med hverken for mange eller for få af dine keywords. Hvad mener i?:-)

  23. Mikael skriver

    Hej Simon, hvorfor tænker du, at Google vil mene at det er underligt at få links hver dag? Det er der rigtig mange websites der gør. Men ellers er vi helt enige om variation og spredning.

Skriv et svar

Din e-mail-adresse vil ikke blive offentliggjort. Krævede felter er markeret med *

Send en mail til mig, når der kommer nye kommentarer.