(Redigerad) artikel ursprungligen publicerad hos Kntnt. Här avses den fullständiga versionen.
Standarden inom sökmotoroptimering har i princip alltid varit att länkar trumfar allt. Content har på samma gång ofta hamnat på efterkälken och nedprioriterats. Men med Googles senaste framsteg inom semantiskt sök, introduktionen av Google RankBrain och integrationen av kontextuella sökresultat så börjar content på allvar att bli en alltmer viktig faktor inom sökmotoroptimering, vilket vi ska diskutera och spekulera kring i denna artikeln.
Googles semantiska förståelse har ökat markant
Google är i mångt och mycket beroende av att bygga sin sökmotor på länkar. På senare tid har fokuset också lagts på text och innehåll och hur de kan hjälpa att avlasta länksystemet från att ge relevanta och träffsäkra sökresultat på Google-användares sökfraser och -frågor. Med introduktionen av Hummingbird, förbättringarna inom Latent Semantic Indexing och nu senast RankBrain har Google tagit stora kliv mot att göra sin sökmotor till en maskin som skulle kunna urskilja innehåll och svårtydliga sökfraser och ge träffsäkra sökresultat utan att förlita sig för mycket på länkar eller specifika sökord.
Contenten – klassens plugghäst och hackkyckling
Inom SEO har alltid content, innehållet, och länkarna ansetts vara fundamenten för en sajts rankningsmöjligheter i Google. Däremot har content alltid varit internetmarknadsföringens tacksammaste hackkyckling. Content-evangelisten var självutnämnt viktigast – ett utmärkt villebråd för de som tyckte annorlunda. SEO-veteranerna har alltid vetat att länkarna varit viktigast – oavsett om content-förespråkarna förkunnat att content är king, Darth Vader eller en återuppstånden Stieg Larsson, och låtit frågan bero där. De mer obskyra SEO-killarna, eller egentligen den delen av SEO-sfären som förstod att länkar slår content på fingrarna i fråga om prioritet från Google, fokuserade istället på att framställa så mycket, och så billig, content som bara var möjligt. Inte sällan med hjälp av asiatiska frilansare, Google/Bing Translate och spunnen (omskriven) Wikipedia-content. Konceptet var ju enkelt, och ju mer det gick att skala, ju bättre.
Nu var det såklart långt ifrån alla sökmotoroptimerare som begagnade sig av metoderna ovan, och sedan ganska många år tillbaka – åtminstone sedan den så kallade Panda-uppdateringen, har content tagits betydligt mycket mer på allvar. Problemet har aldrig varit en ovilja att producera text/innehåll, utan kruxet har snarare varit det faktum att den – trafikmässigt – haft så liten effekt. Om huvudsaken varit att skapa trafik, varför då välja ett sätt som kostar många, många gånger mer? Till saken hör att sökmotoroptimerare oftast är ganska cyniska och luttrade individer. De har alla någon gång låtit sig luras av “content is king”, misslyckats och tvingats söka andra vägar. De vet att man genom att värdera en sajts inlänkar, väldigt väl kan avgöra hur trovärdig dess innehåll är. Att matematiskt göra samma sak med text/innehåll, är dock en helt annan femma.
Förr – det vill säga i slutet av 90-talet och Googles barndom – fanns bara content, men inget sätt att bedöma hur bra den var. Det kvittade med andra ord hur många äpplen content-förespråkarna satte på magisterns kateder, de fick ändå aldrig bästa betyg. Sökmotorerna som existerade var då just det – motorer. Maskiner. De hade inga sätt att värdera textinnehåll på ett vettigt sätt mer än att använda matematik, vilket inte är särskilt pålitligt när man ska bedöma värdet och skillnaden mellan två texter som antingen är Illiaden eller en kioskroman. Därför var det ett snilledrag av Google när de 2003 köpte upp det okända företaget från Santa Monica, Applied Semantics, som då gjorde mjukvaruapplikationer för onlinemarknadsföring. Detta var Googles sjumilakliv mot att få sin sökmotor att förstå kontextuell information och semantik – att ge content-förespråkarna en realistisk chans mot “länk-lägret”.
Definitionen av semantiskt sök
Så vad är semantiskt sök? Semantiskt sök går kortfattat ut på att förstå sin publik, deras intentioner och behov, och vilka slags frågor de skulle kunna ställa. Därefter anpassar man sitt textinnehåll för att svara på dessa frågor och behov, genom att erbjuda kontextuellt innehåll som kanske inte svarar på de specifika sökorden rakt ut, men som ändå handlar om och täcker ämnet. Vikten av sökord tar plats i baksätet här – Google har sedan Hummingbird-uppdateringen (som uppdaterade just Googles semantiska förmåga) 2013 infört flera komponenter i sin sökalgoritm som gör att saker såsom:
- Kontext
- Relevans
- Plats
- Synonymer
- Relaterade fraser
- Ordklasser och -variation
- Homonymer (ord som låter och stavas likadant men betyder olika saker)
- Kön
- Singular och plural
- Nuvarande trender
…och mycket mer spelar roll – vilket gör avsaknaden av specifika sökord mindre viktig. Sökmotorn har sedan dess gått från sökordsbaserad till konceptbaserad – eftersom man ibland inte ens behövt inkludera sökord i sin sökfras, bara vad själva konceptet man söker efter handlar om, och fått bra svar på sin fråga. Hur har den lyckats med detta? Hummingbird introducerade, “på riktigt”, LSI, Latent Semantic Indexing, som är en metod för att bearbeta och analysera mängder av information och hitta mönster. I detta fallet ökar Google på sitt ordförråd genom att gå igenom textinnehåll; sökmotorn analyserar textstrukturen och -uppbyggnaden, vilka ord och termer som nämns i relation till varandra, förkortningar och så vidare, och blir på så vis bättre på att förstå semantiska sammanhang. Innan Hummingbird hade LSI varit rätt så simpel och opålitlig. Efter att uppdateringen skedde började man se att LSI blivit oändligt snabbare och bättre på att snappa upp kontext och semantik. 2013 var ett tag sen, och du som läser kanske redan har märkt av att det skett en ökad träffsäkerhet på tämligen knixiga Google-sökningar, eller vad sägs t.ex om klassikern “fluga eller mask till festen?”. Det beror med största sannolikhet på att Google också lanserat RankBrain förrförra året, som var ett ytterligare steg för att automatiskt förstå användarens avsikter.
Istället för att låta sökmotorn gå igenom information som den blir matad manuellt av ingenjörer så plockar sökmotorn upp sökningar, semantiskt liknande ord, termer och liknande på egen hand, genom att skanna igenom de texter och dokument som finns på internet. Det här är betydelsefullt för att man innan Hummingbird enbart kunde gissa sig till vad en text eller sajt handlade om främst genom att se vilka sökord och så vidare som presenterades löpande i texten. Nu är sökord fortfarande viktigt, men betydelsen av dem börjar bli mindre och mindre. Google har tryckt på att de vill ha ett “conversational search” i evigheter nu, och framstegen i det semantiska finliret har verkligen hjälpt företaget att nå nivån på kort tid. Så, det är här och nu som vi inom SEO börjar satsa på att svara på frågor, istället för specifika sökord. Hur gör jag content marketing? Vad är sökmotoroptimering? Och så vidare.
Co-occurrence och co-citation
Två termer som också hör till den semantiska förståelsen hos Google, och som inte nämns så ofta, är co-occurrence och co-citation. Vad de två termerna innebär illustreras mer utförligt i denna artikeln. Man kan säga att de båda funktionerna verkar för att skapa en slags naturlig, textbaserad länkning mellan en eller flera oberoende källor. När en källa hänvisar till en annan källa och vice versa skapas det en relation mellan de två källorna, och de länkar på så vis till varandra genom omnämnande (citations), vilket Google förstår och tar i beaktning. Det innebär att det är nyttigt och en bra praxis att tala om och länka ut till inflytelserika eller auktoritära sajter, personligheter och dylikt som behandlar samma ämne som du gör. Genom att associera sig med samma källor, så hjälper man sig själv att synas i sökresultat via co-citation.
Vad är co-occurrence?
Co-occurrence inträffar när två (eller fler) sökningar har så pass liknande ord att folk lätt ser dem som synonymer, och speciellt om de förekommer tätt inpå varandra, eller i ett bredare sammanhang i en text. Exempelvis kan man söka på en fras som “Saab Blocket”, och sedan kanske man provar “begagnad Saab till försäljning”. De två söktermerna är så pass nära varandra i ordalag och syfte/avsikt att Google då kan dra en utbildad gissning att personer överlag vill ha en begagnad Saab-bil när de letar efter Saab på Blocket. Co-occurrence gör sig beroende av folks beteenden och hur sannolikt det är att en stor mängd användare gör samma, liknande sökningar, varpå Google tar det som en signal att de är rätt ute – och därför börjar stärka kopplingen mellan söktermerna även i andra sammanhang och med andra söktermer.
Vad är co-citation?
Co-citation är vad man brukar kalla länkbygge utan att involvera länkar. Det finns principiellt två sätt för två oberoende sajter att vara kopplade till varandra i ett så kallat co-citation-förhållande:
- De bör nämna en sajt, men inte länka till den
- Sajterna avhandlar ett ämne som antingen är likt eller som är gemensamt för dem båda.
Detta kräver inte att de använder samma sökord. Sökorden behöver inte vara likadana eller matcha exakt. Det gäller även co-occurrence, som vi nämner ovan. Poängen med co-citation blir med andra ord att omnämnandet skickar en signal till Googles sökalgoritm att den nämnda sajten är relevant och trovärdig, en slags försäkran i textform och inte i länkform.
Sammanfattning
Att inte bra content premieras är faktiskt lite av ett problem för oss som jobbar med sökmotoroptimering. Det är trots allt så att det är innehållet som ska vara viktigt, och inte de länkar din sajt har. Under åren har vi sett det många gånger – ehandlare som stångat sig blodiga, bokstavligen jobbat 70 timmars-veckor, med att producera bra innehåll UTAN att få någon som helst lön för mödan.Verktygen har inte funnits för att belöna bra content, men i takt med den definitiva utvecklingen av sökmotorornas människoliknande förståelse så börjar det äntligen ljusna. Läget har på allvar börjat förändras. Vi rör oss långsamt mot vad man kan kalla för ett “Web v3”, och semantisk sök är en väldigt stor del av den utvecklingen. Alla tecken finns för att man ska kunna tro på en framtid där Internet på riktigt drivs av innehåll, och naturliga, välskrivna texter, där man inte behöver förlita sig lika mycket på specifika sökord, exakta ankartexter och länkar för att synas vid sökfrågor.
Det går i skrivande stund, till viss mån, att överleva, utan att ta till allehanda länkstrategier, men det ska nämnas att länkbygge och traditionell SEO fortfarande behövs och bör integreras i varje seriös internetsatsning. Det som med största sannolikhet kommer att ske är att även små sajter med – och det med emfas – rätt innehåll kommer att kunna överleva. Google förstår, i och med Rankbrain, numer avsikt och kontext mycket bättre, och kommer på så vis kan hjälpa dem att mer frekvent synas på de högre positionerna i sökresultaten. Framtiden, även om vi inte riktigt är där ännu, ser ljus ut för både content marketing och exemplariskt innehåll.