Börja med att dyka upp.
Som vi nämnde i kapitel 1 är sökmotorer svarsmaskiner. De finns för att upptäcka, förstå och organisera Internetinnehållet för att erbjuda de mest relevanta resultaten till de frågor som sökarna ställer.
För att dyka upp i sökresultaten måste ditt innehåll till en början vara synligt för sökmotorerna. Det är utan tvekan den viktigaste delen av SEO-pusslet: Om din webbplats inte kan hittas, finns det inget sätt du någonsin kommer att dyka upp i SERPer (resultatsida för sökmotor).
Hur fungerar sökmotorer?
Sökmotorer har tre huvudsakliga funktioner:
1. Crawl (genomsökning): Söka av Internet efter innehåll se över koden / innehållet för varje URL de hittar.
2. Indexera: Lagra och organisera innehållet som hittats under processen för genomsöknings. När en sida är i indexet kommer den att visas som ett resultat av relevanta frågor.
3. Ranking: Ange de innehållsdelar som bäst svarar på en sökares fråga, vilket innebär att resultaten ordnas från de mest relevanta till minst relevanta.
Vad genomsöker sökmotorerna?
Crawling är genomsökningsprocessen där sökmotorer skickar ut ett team av robotar (kända som crawlers eller spindlar) för att hitta nytt och uppdaterat innehåll. Innehållet kan variera – det kan vara en webbsida, en bild, en video, en PDF etc. – men oavsett format upptäcks innehåll via länkar.
Googlebot börjar med att hämta några få webbsidor och följer sedan länkarna på dessa webbsidor för att hitta nya webbadresser. Genom att hoppa längs denna sökväg kan sökroboten hitta nytt innehåll och lägga till det i sitt index som heter Caffeine – en massiv databas med upptäckta webbadresser – vilken senare kan hämtas när en sökare söker information om innehållet på denna URL är en bra matchning.
Vad är ett sökmotorindex?
Sökmotorer bearbetar och lagrar information de hittar i ett index, en enorm databas med allt innehåll de har upptäckt och anser vara tillräckligt bra för att betjäna sökaren.
Sökmotor ranking
När någon utför en sökning scannar sökmotorerna sitt index för mest relevanta innehåll och sorterar sedan innehållet i hopp om att besvara sökarens fråga. Denna beställning av sökresultat enligt relevans kallas ranking. I allmänhet kan du anta att ju högre en webbplats rankas, desto mer relevant anser sökmotorn att webbplatsen är angående den ställda frågan.
Det är möjligt att blockera en sökmotors sökrobotar från en del av eller hela din webbplats, eller instruera sökmotorer att undvika att lagra vissa sidor i sitt index. Det kan finnas skäl för att göra detta, men om du vill att ditt innehåll hittas av sökare måste du först se till att det är tillgängligt för sökrobotar och är indexerbart. Annars är det så gott som osynlig.
I slutet av detta kapitel har du det sammanhang du behöver för att arbeta med sökmotorn, snarare än mot den!
Crawling: Kan sökmotorer hitta dina sidor?
Som du just lärt dig, att säkerställa din webbplats genomsöks och indexeras är en förutsättning för att den skall dyka upp i SERPer. Om du redan har en webbplats kan det vara en bra idé att börja med att se hur många av dina sidor som finns i indexet. Detta kommer att ge bra insikt i huruvida Google genomsöker och hittar alla sidor du vill den skall hitta, och ingen som du inte vill den skall hitta.
Ett sätt att kontrollera dina indexerade sidor är ”site: yourdomain.com”, en avancerad sökoperatör. Gå till Google och skriv ”site: yourdomain.com” i sökfältet. Detta ger resultaten som Google har i sitt index för den angivna webbplatsen:
Antalet resultat som Google visar (se ”AboutXX-results” ovan) är inte exakt, men det ger dig en gedigen uppfattning om vilka sidor som är indexerade på din webbplats och hur de för närvarande visas i sökresultaten.
För mer exakta resultat kan du övervaka och använda täckningsrapporten för index i Google Search Console. Du kan registrera dig för ett gratis Google Search Console-konto om du för närvarande inte har ett. Med det här verktyget kan du skicka webbplatskartor för din webbplats och bland annat övervaka hur många skickade sidor som faktiskt har lagts till i Googles index.
Om du inte dyker upp någonstans i sökresultaten finns det några möjliga skäl till varför:
· Din webbplats är helt ny och har inte genomsökts ännu
· Din webbplats är inte länkad till från några externa webbplatser
· Navigering på din webbplats gör det svårt för en robot att genomsöka den effektivt
· Din webbplats innehåller grundläggande kod kallad crawler direktiv vilken blockerar sökmotorer
· Din webbplats har ”bestraffats” av Google för aktivitet med skräppost
De flesta personer tänker på att se till så att Google kan hitta deras viktiga sidor, men det är lätt att glömma att det troligtvis finns sidor som du inte vill att Googlebot ska hitta. Dessa kan innefatta saker som gamla webbadresser vilka har skralt innehåll, duplicerade webbadresser (som sorterings- och filterparametrar för e-handel), speciella kampanjkodsidor, iscensättnings- eller testsidor och så vidare.
För att rikta Googlebot bort från vissa sidor och delar på din webbplats, använd robots.txt.
Robots.txt
Robots.txt-filer finns i rotkatalogen för webbplatser (t.ex. yourdomain.com/robots.txt) och föreslår vilka delar av webbplatsen sökmotorer bör och inte bör genomsöka, liksom hastigheten med vilken de genomsöker din webbplats via specifika robots.txt-direktiv.
Hur Googlebot behandlar robots.txt-filer
· Om Googlebot inte kan hitta en robots.txt-fil för en webbplats fortsätter den att genomsöka webbplatsen
· Om Googlebot hittar en robots.txt-fil för en webbplats kommer den vanligtvis att följa förslagen och fortsätta att genomsöka webbplatsen
· Om Googlebot stöter på ett fel när du försöker komma åt en webbplats robots.txt-fil och inte kan avgöra om en finns eller inte, kommer den inte att genomsöka webbplatsen
Inte alla webbrobotar följer robots.txt. Personer med dåliga avsikter (t.ex. de som samlar e-postadresser) bygger bots vilka inte följer detta protokoll. Faktum är att vissa dåliga aktörer använder robots.txt-filer för att hitta var du har lagt ditt privata innehåll. Även om det kan tyckas logiskt att blockera sökrobotar från privata sidor såsom inloggnings- och administrationssidor så att de inte dyker upp i indexet, att placera platsen för dessa webbadresser i en offentligt tillgänglig robots.txt-fil innebär också att personer med dåliga avsikt kan hitta dem lättare. Det är bättre att NoIndex dessa sidor och stänga dem bakom ett inloggningsformulär istället för att placera dem i din robots.txt-fil.
Definiera URL-parametrar i GSC
Vissa webbplatser (vanligast med e-handel) gör samma innehåll tillgängligt på flera olika webbadresser genom att lägga till vissa parametrar till webbadresser. Om du någonsin har handlat online har du troligen minskat mer din sökning via filter. Till exempel kan du söka efter ”skor” på Amazon och sedan förfina din sökning efter storlek, färg och stil. Varje gång du förfina ändras URLen något:
https://www.example.com/products/women/dresses/green.htmhttps://www.example.com/products/women?category=dresses&color=greenhttps://example.com/shopindex.php?product_id=32&highlight=green+dress&cat_id = 1&sessionid=123$=43
Hur vet Google vilken version av webbadressen som ska användas för sökare? Google gör ett ganska bra jobb med att ta reda på den representativa webbadressen på egen hand, men du kan använda URL-parametrarna i Google Search Console för att berätta för Google exakt hur du vill att de ska behandla dina sidor. Om du använder den här funktionen att berätta för Googlebot ”crawl no URLs with____parameter”, ber du i huvudsak att detta innehåll skall döljas från Googlebot, vilket kan leda till att dessa sidor tas bort från sökresultaten. Det är vad du vill skall ske om dessa parametrar skapar dubbla sidor, men inte idealisk om du vill att dessa sidor skall indexeras.
Kan sökrobotar hitta allt ditt viktiga innehåll?
Nu när du känner till viss taktik för att se till att crawlers i sökmotor håller sig borta från ditt oväsentliga innehåll, låt oss lära om optimeringarna vilken kan hjälpa Googlebot att hitta dina viktiga sidor.
Ibland kan en sökmotor hitta delar av din webbplats via genomsökning, men andra sidor eller sektioner kan döljas av en eller annan anledning. Det är viktigt att se till att sökmotorerna kan upptäcka allt innehåll du vill ha indexerat och inte bara din hemsida.
Fråga dig själv detta: Kan botten krypa genom din webbplats och inte bara till den?
Döljs ditt innehåll bakom inloggningsformulär?
Om du kräver att användare loggar in, fyller i formulär eller svarar på undersökningar innan de får tillgång till visst innehåll, kommer sökmotorerna inte att se de skyddade sidorna. En sökrobot kommer definitivt inte att logga in.
Lita du på sökformulär?
Robotar kan inte använda sökformulär. Vissa individer tror att om de placerar en sökruta på sin webbplats, kan sökmotorerna hitta allt som deras besökare söker efter.
Döljs text i innehåll utan text?
Medieformat som inte är text (bilder, video, GIF, etc.) bör inte användas för att visa text som du vill indexeras. Samtidigt som sökmotorerna blir bättre på att känna igen bilder, finns det ingen garanti för att de kommer att kunna läsa och förstå det ännu. Det är alltid bäst att lägga till text inom <HTML> -markeringen på din webbsida.
Kan sökmotorer följa din navigering på webbsida?
Precis som en sökrobot behöver upptäcka din webbplats via länkar från andra webbplatser, behöver den en sökväg på din egen webbplats för att vägleda den från sida till sida. Om du har en sida som du vill att sökmotorer ska hitta men den inte är länkad till från andra sidor är den så bra som osynlig. Många webbplatser gör det kritiska misstaget att strukturera sin navigering på sätt som är otillgängliga för sökmotorer, vilket hindrar deras förmåga att bli listade i sökresultaten.
Vanliga navigationsfel som kan hindra sökrobotar från att se hela din webbplats:
· Att ha en mobilnavigering som visar andra resultat än din stationära navigering
· Alla typer av navigering där menyalternativen inte finns i HTML, till exempel JavaScript-aktiverade navigeringar. Google har blivit mycket bättre på crawling och förstå Javascript, men det är fortfarande inte en perfekt process. Det mer säkra sättet att säkerställa att något blir hittat, förstått och indexerat av Google är genom att sätta det i HTML-koden
· Anpassning, eller visning av unik navigering till en viss typ av besökare jämfört med andra, kan tyckas släppa till en sökmotors sökrobot
· Glömma att länka till en primär sida på din webbplats genom din navigering – kom ihåg att länkar är sökvägarnas bana till nya sidor!
Därför är det viktigt att din webbsida har en tydlig navigering och användbara mappstrukturer för URL.
Har du ren informationsarkitektur?
Informationsarkitektur är metoden att organisera och märka innehåll på en webbsida för att förbättra användarnas effektivitet och förmåga att hitta. Den bästa informationsarkitekturen är intuitiv, vilket innebär att användare inte behöver tänka väldigt mycket för att flyta igenom din webbplats eller hitta något.
Använder du webbplatskartor?
En webbplatskarta är precis som det låter: en lista med webbadresser på din webbplats vilka sökrobotar kan använda för att upptäcka och indexera ditt innehåll. Ett av de enklaste sätten att se till att Google hittar dina sidor med högsta prioritet är att skapa en fil som uppfyller Googles standard och skicka denna via Google Search Console. När du skickar en webbplatskarta ersätter det inte behovet av bra webbplatsnavigering, men det kan säkert hjälpa sökrobotar att följa en väg till alla dina viktiga sidor.
Om din webbsida inte har några andra webbsidor vilka länkar till den kan du fortfarande få den indexerad genom att skicka din XML webbplatskarta till Google Search Console. Det finns ingen garanti för att de kommer att inkludera en skickad URL i sitt index, men det är värt ett försök!
Får sökrobotar fel när de försöker komma åt dina webbadresser?
I processen med crawling av webbadresserna på din webbplats kan en sökrobot stöta på fel. Du kan gå till Google Search Consoles rapport ”Genomsökningsfel” för att upptäcka webbadresser vilka detta kan ske med – den här rapporten visar dig serverfel och ej hittade fel. Serverloggfiler kan också visa dig detta, liksom en skatt med annan information såsom crawling-frekvens. Men eftersom åtkomst till och dissekering av serverloggfiler är en mer avancerad taktik kommer vi inte att diskutera den i omfattning i nybörjarguiden, även om du kan lära dig mer om det här.
Innan du kan göra något meningsfullt med felrapporten för crawling är det viktigt att förstå serverfel och ”ej hittade” fel.
4xx-koder: När crawler för sökmotor inte kan komma åt ditt innehåll på grund av ett klientfel
4xx-fel är klientfel, vilket innebär att den begärda webbadressen innehåller dålig syntax eller inte kan uppfyllas. Ett av de vanligaste 4xx-felen är felet ”404 – not found”. Dessa kan inträffa på grund av skrivfel i URL, raderad sida eller felaktig omdirigering, bara för att nämna några exempel. När sökmotorer träffar en 404 kan de inte komma åt URLen. När användare träffar en 404 kan de bli frustrerade och lämna.
5xx-koder: När crawler för sökmotor inte kan komma åt ditt innehåll på grund av ett serverfel
5xx-fel är serverfel, vilket innebär att servern som webbsidan ligger på misslyckades med att uppfylla sökaren eller sökmotorns begäran om åtkomst till sidan. I rapporten ”Genomsökningsfel” i Google Search Console finns en flik avsedd för dessa fel. Dessa inträffar vanligtvis på grund av att begäran om webbadressen har gått ut, så Googlebot övergav begäran. Se Googles dokumentation för att lära dig mer om hur du fixar serveranslutningsfrågor.
Tack och lov finns det ett sätt att berätta för både sökare och sökmotorer att din sida har flyttat – 301 (permanent) omdirigering.
Säg att du flyttar en sida från exempel.com/young-dogs/ till exempel.com/puppies/. Sökmotorer och användare behöver en bro för att gå över från den gamla URL till den nya. Den bron är en 301 omdirigering.
När du implementerar en 301: | När du inte implementerar en 301: | |
Länk Likhet | Överföringar av lika länkar från sidans gamla plats till den nya webbadressen | Utan en 301 överförs inte källan från den föregående URL till den nya versionen av URL |
Indexering | Hjälper Google att hitta och indexera den nya versionen av sidan | Förekomsten av 404-fel på din webbplats skadar inte sökprestandan i sig, men att låta sidor 404 rangordnas / trafikeras kan resultera i att de faller ur indexet, med rangordningar och trafik som ryker med dem |
Användarupplevelse | Se till att användare hittar sidan de letar efter | Genom att låta dina besökare klicka på döda länkar kommer de till felsidor istället för den avsedda sidan, vilket kan vara frustrerande |
Själva statuskoden för 301 innebär att sidan permanent har flyttats till en ny plats, så undvik att omdirigera webbadresser till irrelevanta sidor – webbadresser där den gamla URLens innehåll faktiskt inte finns. Om en sida rankas för en fråga och du 301ar den till en URL med annat innehåll, kan den sjunka i rankningsposition eftersom innehållet som gjorde den relevant för den specifika frågan inte finns längre. 301or är kraftfulla – flytta webbadresser ansvarsfullt!
Du har också möjligheten att 302 omdirigera en sida, men detta bör reserveras för tillfälliga drag och i de fall där upprätthållande av lika länk inte är lika stort. 302or är som en omväg. Du skickar tillfälligt trafik genom en viss rutt, men det kommer inte att vara så för alltid.
När du har säkerställt att din webbsida är optimerad för crawling är nästa steg att se till så den kan indexeras.
Indexering: Hur tolkar och lagrar sökmotorer dina sidor?
När du har säkerställt att din webbsida genomsökts är nästa steg att se till så den kan indexeras. Det stämmer – bara för att din webbsida kan upptäckas och genomsökas av en sökmotor betyder det inte nödvändigtvis att den kommer att lagras i deras index. I föregående avsnitt om genomsökning diskuterade vi hur sökmotorer upptäcker dina webbsidor. Indexet är var dina upptäckta sidor lagras. När en sökrobot har hittat en sida hanterar sökmotorn den precis som en webbläsare skulle göra. I processen analyserar sökmotorn den sidans innehåll. All den informationen lagras i dess index.
Läs vidare för att lära dig hur indexering fungerar och hur du kan se till så att din webbsida hamnar i den här viktiga databasen.
Kan jag se hur en Googlebot sökrobot ser mina sidor?
Ja, den cache-lagrade versionen av din sida återspeglar en ögonblicksbild av förra gången Googlebot genomsökte den.
Google genomsöker och cachar webbsidor med olika frekvenser. Mer etablerade, välkända webbsidor som publicerar ofta såsom https://www.nytimes.com kommer att genomsökas oftare än den mycket obekanta webbplatsen som säljer maskeradkostymer.
Du kan se hur din cache-version av en sida ser ut genom att klicka på pilen i rullgardinen bredvid URLen i SERP och välja ”Cache”:
Du kan också se den textversion av din webbplats för att avgöra om ditt viktiga innehåll kryper och cachas effektivt.
Tas sidor någonsin bort från indexet?
Ja, sidor kan tas bort från indexet! Några av de främsta orsakerna till att en URL kan tas bort innefattar:
· Webbadressen returnerar ett ”ek hittat” -fel (4XX) eller serverfel (5XX) – Detta kan vara oavsiktligt (sidan flyttades och en 301-omdirigering gjordes inte) eller avsiktlig (sidan raderades och hamnade som 404 för att få det bort från indexet)
· Webbadressen har lagt till en metatagg från noindex – Den här taggen kan läggas till av webbplatsägaren för att instruera sökmotorn att utelämna sidan från dess index
· URLen har bestraffats manuellt för brott mot Sökmotorns Riktlinjer för Webbansvariga och som ett resultat av detta har den tagits bort från indexet
· Webbadressen har blockerats från genomsökning för att krav om lösenord lagts till innan besökare kan komma åt sidan
Om du tror att en sida på din webbplats som tidigare fanns i Googles index inte längre dyker upp, kan du använda URL inspektionsverktyg för att kontrollera status på sidan eller använda Fetch as Google som har en funktion ”Begär indexering” för att skicka in enskilda webbadresser till indexet. (Bonus: GSCs ”fetch” verktyg har också ett alternativ för ”render” vilket låter dig se om det finns några problem med hur Google tolkar din sida).
Berätta för sökmotorer hur de skall indexerar din webbsida – Robotens metadirektiv
Metadirektiv (eller ”metataggar”) är instruktioner du kan ge till sökmotorer om hur du vill att din webbsida ska behandlas.
Du kan berätta till crawlers för sökmotorer saker såsom ”inte indexera den här sidan i sökresultaten” eller ”skicka inte någon lika länk till någon länk på sidan”. Dessa instruktioner körs via Robot Metataggar i <head> på dina HTML-sidor (oftast använd) eller via X-Robots-taggen i HTTP-header.
Robotens metataggar
Robotens metatagg kan användas inom <head> i HTML-koden på din webbsida. Det kan utesluta alla eller specifika sökmotorer. Följande är de vanligaste metadirektiven, tillsammans med vilka situationer du kan tillämpa dem i.
index / noindex berättar för sökmotorerna om sidan skall genomsökas och förvaras i en sökmotors index för hämtning. Om du väljer att använda ”noindex”, kommunicerar du till sökrobotar där du vill att sidan skall uteslutas från sökresultaten. Som standard antar sökmotorerna att de kan indexera alla sidor, så att använda värdet ”index” är onödigt
· När du kan använda: Du kan välja att markera en sida som ”noindex” om du försöker klippa ut tunna sidor från Googles index för din webbplats (ex: användargenererade profilsidor) men du fortfarande vill ha dem tillgängliga för besökare.
follow / nofollow berättar för sökmotorer om länkar på sidan ska följas eller inte följas. ”follow” resulterar i att bots följer länkarna på din sida och skickar länkinnehåll till dessa webbadresser. Eller, om du väljer att använda ”nofollow” kommer sökmotorerna inte att följa eller skicka något länkinnehåll till länkarna på sidan. Som standard antas att alla sidor har attributet ”follow”.
· När du kanske använder: nofollow används ofta tillsammans med noindex när du försöker förhindra att en sida indexeras samt förhindrar att sökroboten följer länkar på sidan.
noarchive används för att begränsa sökmotorer från att spara en cache-kopia av sidan. Som standard kommer motorerna att behålla synliga kopior av alla sidor de har indexerat, tillgängliga för sökare via cache-länken i sökresultaten.
· När du kanske använder: Om du driver en e-handelswebbplats och dina priser förändras regelbundet, kan du överväga taggen noarchive för att förhindra att sökare ser gamla priser.
Här är ett exempel på en metrobot noindex, nofollow-tagg:
<! DOCTYPE html> <html> <head> <meta name = ”robots” content = ”noindex, nofollow” /> </head> <body> … </body> </html>
Detta exempel exkluderar alla sökmotorer från att indexera sidan och från att följa samtliga länkar på sidan. Om du vill utesluta flera sökrobotar, som till exempel googlebot och bing, är det okej att använda flera uteslutningstaggar för robotarl.
Metadirektiv påverkar indexering, inte crawling
Googlebot måste genomsöka din sida för att se metadirektiven, så om du försöker förhindra sökrobotar att komma åt vissa sidor är metadirektiven inte sättet att göra det på. Robottaggar måste genomsökas för att följas.
X-Robots-Tag
X-robot-taggen används i HTTP-rubriken på din URL, vilket ger mer flexibilitet och funktionalitet än metataggar om du vill blockera sökmotorer i mängd eftersom du kan använda reguljära uttryck, blockera icke-HTML-filer och tillämpa noindex-taggar över hela sidor.
Som exempel kan du enkelt utesluta hela mappar eller filtyper (såsom moz.com/no-bake/old-recipes-to-noindex):
<Files ~ ”\ /? No \ -bake \ /.*”> Header set X-Robots-Tag ”noindex, nofollow” </Files>
Derivaten som används i en metatagg för robotar kan också användas i en X-Robots-tagg.
Eller specifika filtyper (som PDF-filer):
<Files ~ ”\ .pdf $”> Header set X-Robots-Tag ”noindex, nofollow” </Files>
För mer information om Meta Robot Taggar, utforska Googles Robot Meta Tag Specifikationer.
Att förstå de olika sätten du kan påverka genomsökning och indexering hjälper dig att undvika de vanliga fallgroparna som kan förhindra att dina viktiga sidor hittas.
Ranking: Hur rankar sökmotorer URLer?
Hur ser sökmotorerna till att när någon skriver en fråga i sökfältet, att de får relevanta resultat i gengäld? Den processen kallas ranking eller sortering på sökresultat av de mest relevanta och till minst relevanta för en viss fråga.
För att avgöra relevansen använder sökmotorer algoritmer, en process eller formel genom vilken lagrad information hämtas och ordnas på meningsfulla sätt. Dessa algoritmer har genomgått många förändringar genom åren för att förbättra sökresultatens kvalitet. Google gör till exempel algoritmjusteringar varje dag – några av dessa uppdateringar är justeringar av mindre art, medan andra är fundamentala / breda algoritmuppdateringar som används för att ta itu med en specifik fråga, såsom Penguin för att hantera spam av länkar. Kolla in vår Google Alghorithm Change History för en lista över både bekräftade och okontrollerade Google uppdateringar vilken går tillbaka till år 2000.
Varför ändras algoritmen så ofta? Försöker Google bara hålla oss på tårna? Även om Google inte alltid avslöjar detaljer om varför de gör vad de gör, vet vi att Googles mål när man gör algoritmjusteringar är att förbättra den övergripande sökkvaliteten. Därför kommer Google att svara på frågor om algoritmuppdatering med något i linje med: ”Vi gör kvalitetsuppdateringar hela tiden.” Detta indikerar att om din webbsida drabbats efter en algoritmjustering, jämför den mot Googles Riktlinjer för Kvalitet eller Riktlinjer för Sökkvalitet. Båda är mycket avslöjande vad gäller sökmotorer önskar.
Vad vill sökmotorerna?
Sökmotorer har alltid velat samma sak: att ge användbara svar på sökarens frågor i de mest användbara formaten. Om det är sant, varför ser det ut som att SEO är annorlunda nu än tidigare år?
Tänk på det i termer att någon lär sig ett nytt språk.
Till en början är deras förståelse för språket mycket rudimentärt. Med tiden börjar deras förståelse fördjupas och de lär sig semantik – innebörden bakom språket och förhållandet mellan ord och fraser. Så småningom, efter tillräckligt med övning, kan eleven språket tillräckligt för att till och med förstå nyanser och kan ge svar på även vaga eller ofullständiga frågor.
När sökmotorerna precis började lära sig vårt språk var det mycket lättare att lura systemet genom att använda trick och taktik som faktiskt strider mot kvalitetsriktlinjer. Ta som exempel påfyllning av nyckelord. Om du ville rangordna för ett visst nyckelord som ”roliga skämt”, kunde du lägga till orden ”roliga skämt” en mängd gånger på din sida i hoppet om att öka din ranking för den termen:
Välkommen till roliga skämt! Vi berättar världens roligaste skämt. Roliga skämt är roliga och galna. Ditt roliga skämt väntar. Luta dig tillbaka och läs roliga skämt eftersom roliga skämt kan göra dig lycklig och roligare. Några roliga favorit skämt.
Denna taktik skapade fruktansvärda användarupplevelser, och istället för att skratta åt roliga skämt bombarderades personer med irriterande, svårläst text. Det kan ha fungerat tidigare, men det är aldrig vad sökmotorerna ville ha.
Rollen länkar spelar i SEO
När vi talar om länkar kan det betyda två saker. Backlinks eller ”inkommande länkar” är länkar från andra webbplatser vilka pekar mot din webbsida, medan interna länkar är länkar på din egen webbsida vilka pekar mot dina andra sidor (på samma webbsida).
Länkar har historiskt spelat en stor roll i SEO. Mycket tidigt behövde sökmotorer hjälp med att ta reda på vilka URLer som var mer tillförlitliga än andra, för att hjälpa dem att avgöra hur man skulle rangordna sökresultaten. Att beräkna antalet länkar som pekar på en given webbplats hjälpte dem att göra detta.
Backlinks fungerar i stort på samma sätt som i verkligheten och från mun till mun. Låt oss ta ett hypotetiskt kafé, Jennys Kafé, som exempel:
· Hänvisningar från andra = gott tecken på tillförlitlighet
o Exempel: Flera olika personer har alla sagt att Jennys kaffe är det bästa i stan.
· Hänvisningar från dig själv = partisk, så inte ett bra tecken på tillförlitlighet
o Exempel: Jenny hävdar att Jennys kaffe är bäst i stan
· Hänvisningar från irrelevanta källor eller de av låg kvalitet = inte ett bra tecken på tillförlitlighet och kan till och med få dig flaggad för skräppost
o Exempel: Jenny betalade en mängd personer som aldrig har besökt hennes kafé att berättar för andra hur bra det är.
· Inga hänvisningar = oklar tillförlitlighet
o Exempel: Jennys kaffe kan vara bra, men du har inte hittat någon som har en åsikt så du kan inte vara säker.
Det är därför sidrankning skapades. PageRank (del av Googles kärnalgoritm) är en algoritm för länkanalys uppkallad efter en av Googles grundare, Larry Page. PageRank uppskattar vikten av en webbsida genom att mäta kvaliteten och mängden länkar som pekar mot den. Antagandet är att ju mer relevant, viktig och pålitlig en webbsida är, desto fler länkar har den tjänat ihop.
Ju mer naturliga backlinks du har från webbplatser med hög tillförlitlighet, desto bättre är dina odds att rankas högre inom sökresultaten.
Rollen som innehåll spelar i SEO
Det skulle inte finnas någon mening med länkar om de inte riktade sökare till något. Att något är innehåll! Innehållet är mer än bara ord; det är allt som ska konsumeras av sökare – det finns videoinnehåll, bildinnehåll och naturligtvis text. Om sökmotorer är svarsmaskiner, då är innehållet det sätt på vilket sökmotorerna levererar dessa svar.
Varje gång någon utför en sökning finns det tusentals möjliga resultat. Så hur bestämmer sökmotorer vilka sidor sökaren kommer att finna värdefulla? En stor del av att bestämma var din sida skall rankas för en given fråga är hur väl innehållet på din sida matchar frågeställningens avsikt. Med andra ord, matchar den här sidan orden som sökts och hjälper det till att utföra uppgiften som sökaren försökte fullgöra?
På grund av detta fokus vad gäller användartillfredsställelse och utförande av uppgifter finns det inga strikta riktmärken för hur långt ditt innehåll skall vara, hur många gånger det skall innehålla ett nyckelord eller vad du sätter i dina rubriktaggar. Alla dessa kan spela en roll i hur bra en sida presterar i sökningen, men fokus bör vara på användarna som kommer att läsa innehållet.
Idag, med hundratals eller till och med tusentals rankningssignaler, har de tre i toppen hållit sig ganska konsekvent: länkar till din webbplats (som fungerar såsom en tredjeparts trovärdighetssignal), innehåll på sidan (kvalitativt innehåll som uppfyller en sökares avsikt) och RankBrain.
Vad är RankBrain?
RankBrain är maskininlärningskomponenten i Googles kärnalgoritm. Maskininlärning är ett datorprogram som fortsätter att förbättra sina förutsägelser över tid genom nya observationer och träningsdata. Med andra ord, det är alltid inlärande och eftersom det alltid lär sig bör sökresultaten ständigt förbättras.
Om exempelvis RankBrain märker att en lägre rankad URL som ger ett bättre resultat för användare än de högre rankade URLen, kan du ge dig på att RankBrain kommer att justera dessa resultat, flytta det mer relevanta resultatet högre och nedgradera de mindre relevanta sidorna som en biprodukt.
Liksom de flesta saker med sökmotorn vet vi inte exakt vad som innefattar RankBrain, men tydligen gör inte heller folket på Google det.
Vad betyder detta för SEO?
Eftersom Google kommer att fortsätta utnyttja RankBrain för att marknadsföra det mest relevanta, användbara innehållet, måste vi fokusera på att uppfylla sökarens avsikt mer än någonsin tidigare. Ge bästa möjliga information och upplevelse för sökare som kan landa på din sida, och då har du tagit ett stort första steg för att prestera bra i en RankBrain värld.
Engagemangsstatistik: korrelation, orsakssamband eller båda?
Med Googles rankningar är engagemangsmetrik troligtvis en del och en del orsak.
När vi säger engagemangsmetoder menar vi data som representerar hur sökare interagerar med din webbsida från sökresultat. Detta innefattar saker såsom:
· Klick (besök från sökning)
· Tid på sidan (den tid som besökaren tillbringade på en sida innan han lämnade den)
· Avvisningsfrekvens (procentandelen av alla webbplatssessioner där användare bara tittade på en sida)
· Pogo-sticking (klickar på ett organiskt resultat och återgår sedan snabbt till SERP för att välja ett annat resultat)
Många test, inklusive Mozs egna faktorundersökning för ranking har visat att engagemangsmetrik korrelerade med högre ranking, men orsakssamband har diskuterats mycket. Är god engagemangsstatistik bara en indikation på högt rankade webbplatser? Eller rankas webbplatser högt eftersom de har goda engagemangsmätningar?
Vad Google har sagt
Samtidigt som de aldrig har använt termen ”direkt rankingssignal” har Google varit tydligt att de absolut använder klick-data för att modifiera SERP för specifika frågor.
Enligt Googles tidigare chef för sökkvalitet, Udi Manber:
”Själva rankingen påverkas av klickdata. Om vi upptäcker att för en viss fråga klickar 80 % av personerna på nr 2 och bara 10 % klickar på nr 1, efter ett tag räknar vi med att antagligen är nummer 2 den som folk vill ha, så vi kommer att byta det.”
En annan kommentar från den tidigare Google-ingenjören Edmond Lau bekräftar detta:
”Det är ganska tydligt att alla sökmotorer av vikt skulle använda klick-data på sina egna resultat för att återmata till ranking för att förbättra sökresultatens kvalitet. Den faktiska mekaniken för hur klick-data används är ofta proprietär, men Google gör det uppenbart att det använder klick-data med sina patent på system som rankingjusterade innehållsobjekt.”
Eftersom Google behöver upprätthålla och förbättra sökkvaliteten verkar det oundvikligt att engagemangsmetriker är mer än korrelation, men det verkar som om Google inte har några anropsmetoder som en ”rangordningssignal” eftersom dessa mätvärden används för att förbättra sökkvaliteten och rankning av enskilda webbadresser bara är en biprodukt av det.
Vilka test har bekräftat
Olika test har bekräftat att Google kommer att justera SERP-ordningen som svar på sökarens engagemang:
· Rand Fishkins test 2014 resulterade i att ett Nr 7 resultat flyttade upp till plats 1 efter att ha fått cirka 200 personer att klicka på URLen från SERP. Intressant nog tycktes rankningsförbättringen vara isolerad till platsen där de personer som besökte länken levde. Rankingpositionen nådde topp i USA, där många deltagare bodde, medan den förblev lägre på sidan i Google Kanada, Google Australien, etc.
· Larry Kims jämförelse av toppsidorna och deras genomsnittliga uppehållstid före och efter RangBrain tycktes tyda på att maskininlärningskomponenten i Googles algoritm visar rankningspositionen för sidor som folk inte lägger så mycket tid på.
· Darren Shaws test har också visat att användarnas beteende påverkade på lokala sökresultat.
Eftersom användarnas engagemangsmetoder tydligt används för att anpassa SERPerna vad gäller kvalitet och rangordna positionsändringar som en del i detta, kan man säkert säga att SEOer bör optimeras för engagemang. Engagemang ändrar inte den objektiva kvaliteten på din webbsida, utan snarare ditt värde för sökare i förhållande till andra resultat för den frågan. Det är därför, efter inga ändringar på din sida eller dess backlinks, den kan sjunka i ranking om sökarnas beteende indikerar att de gillar andra sidor bättre.
När det gäller rankning av webbsidor fungerar engagemangsmetriker som en faktakontroll. Objektiva faktorer som länkar och innehåll rangordnar först sidan, sedan hjälper engagemangsmetrik Google att anpassa sig om den inte hade rätt.
Utvecklingen av sökresultat
Då när sökmotorerna saknade mycket av det sofistikerade de har idag, myntades termen ”10 blå länkar” för att beskriva den platta strukturen i SERP. Varje gång en sökning utfördes skickade Google tillbaka en sida med 10 organiska resultat, var och ett i samma format.
I detta söklandskap var SEO heliga graal att bibehålla plats 1. Men då hände något. Google började lägga till resultat i nya format på sina sidor, kallade SERP-funktioner. Några av dessa SERP-funktioner innefattade:
· Betalda annonser
· Utvalda utdrag
· Folk frågar också rutor
· Lokalt paket (karta)
· Kunskapspanelen
· Sidlänkar
Och Google lägger till nya hela tiden. De experimenterade till och med, med ”nollresultat SERPer”, ett fenomen där endast ett resultat från kunskapsgrafen visades på SERP utan resultat under den, med undantag för ett alternativ att ”visa fler resultat.”
Tillägget av dessa funktioner orsakade viss initial panik av två huvudsakliga skäl. Till en början den att många av dessa funktioner orsakade organiska resultat att sänkas ner ytterligare på SERP. En annan biprodukt är att färre sökare klickar på de organiska resultaten eftersom fler frågor besvaras på själva SERP.
Så varför gjorde Google detta? Allt går tillbaka till sökupplevelsen. Användarens beteende indikerar att vissa frågor är besvarade med olika innehållsformat. Lägg märke till hur de olika typerna av SERP-funktionerna matchar de olika typerna av frågeställningar.
Frågans Syfte | Möjlig SERP-funktion som utlöses |
Informativt | Utvalda utdrag |
Informativt med ett svar | Kunskapsdiagram / omedelbart svar |
Lokalt | Kartpaket |
Transaktionell | Shopping |
Vi kommer att prata mer angående avsikt i kapitel 3, men för tillfället är det viktigt att veta att svar kan levereras till sökare i en mängd olika format, och hur du strukturerar ditt innehåll kan påverka formatet som det visas i sökningen.
Lokaliserad sökning
En sökmotor som Google har sitt eget patenterade index för lokala företagsförteckningar, från vilka den skapar lokala sökresultat.
Om du utför lokalt SEO-arbete för ett företag som har en fysisk plats vilken kunder kan besöka (ex: tandläkare) eller för ett företag som reser för att besöka sina kunder (ex: rörmokare), se till att du gör anspråk på, verifierar och optimerar ett gratis Google My Business Listing.
När det gäller lokaliserade sökresultat använder Google tre huvudfaktorer för att bestämma ranking:
1. Relevans
2. Avstånd
3. Prominens
Relevans
Relevans är hur väl ett lokalt företag matchar vad sökaren letar efter. För att säkerställa att verksamheten gör allt den kan för att vara relevant för sökare, se till att företagets information är noggrant och korrekt ifylld.
Distans
Google använder din geografiska plats för att bättre ge dig lokala resultat. Lokala sökresultat är extremt känsliga vad gäller närhet, vilket avser platsen för sökaren och / eller den plats som anges i frågan (om sökaren inkluderade en).
Organiska sökresultat är känsliga vad gäller en sökares plats, men sällan så uttalade som i paket för lokala resultat.
Prominens
Med prominens som en faktor vill Google belöna företag vilka är välkända i den verkliga världen. Förutom ett företags offentliga framträdande tittar Google också på vissa faktorer online för att bestämma lokal ranking, till exempel:
Recensioner
Antalet Google recensioner som ett lokalt företag får, och innehållet i dessa recensioner har en betydande inverkan på deras förmåga att rankas i lokala resultat.
Listning
En ”företagslistning” eller ”företagsförteckning” är en webbaserad referens till ett lokalt företag (namn, adress, telefonnummer) på en lokal plattform (Yelp, Acxiom, YP, Infogroup, Localeze, etc.) .
Lokala rankningar påverkas av antalet och konsistensen i de lokala företagslistningarna. Google hämtar data från en mängd olika källor för att kontinuerligt skapa sitt lokala affärsindex. När Google hittar flera konsekventa referenser till ett företags namn, plats och telefonnummer stärker det Googles ”förtroende” för giltigheten av dessa uppgifter. Detta leder sedan till att Google kan visa verksamheten med högre grad av förtroende. Google använder också information från andra källor på webben, till exempel länkar och artiklar.
Organisk rangordning
SEOs bästa förfarande gäller även för lokal SEO, eftersom Google också beaktar en webbplats position i organiska sökresultat när man bestämmer lokal ranking.
I nästa kapitel kommer du att lära dig bästa metoder som hjälper Google och användare att bättre förstå ditt innehåll.