De 12 vigtigste elementer i en teknisk SEO-revision
admin - november 10, 2021I modsætning til hvad mange tror, er teknisk SEO ikke alt for udfordrende, når du først har styr på det grundlæggende; du bruger måske endda nogle af disse taktikker uden at vide det.
Det er dog vigtigt at vide, at dit websted sandsynligvis har en eller anden form for teknisk problem. “Der findes ingen perfekte websteder uden plads til forbedringer”, forklarede Elena Terenteva fra SEMrush. “Hundredvis og endda tusindvis af problemer kan forekomme på dit websted.”
For eksempel havde over 80 % af de undersøgte websteder 4xx fejl i form af brudte links ifølge en SEMrush-undersøgelse fra 2017, og mere end 65 % af webstederne havde duplicate content.
I sidste ende ønsker du, at dit websted skal ranke bedre, få bedre trafik og skabe flere konverteringer. Teknisk SEO handler om at rette fejl for at få det til at ske. Her er 12 tekniske SEO-elementer, som du skal kontrollere for at opnå maksimal optimering af webstedet.
Identificer crawlfejl med en crawlrapport
En af de første ting, du skal gøre, er at køre en crawlrapport for dit websted. En crawlrapport eller site audit giver indsigt i nogle af dit sites fejl.
Du vil se dine mest presserende tekniske SEO-problemer, f.eks. duplikatindhold, lav sidehastighed eller manglende H1/H2-tags.
Du kan automatisere site audits ved hjælp af en række forskellige værktøjer og arbejde dig igennem listen over fejl eller advarsler, der er oprettet af crawlen. Dette er en opgave, som du bør gennemgå hver måned for at holde dit websted rent for fejl og så optimeret som muligt.
Tjek HTTPS-statuskoder
Overgang til HTTPS er et must, fordi søgemaskiner og brugere ikke vil have adgang til dit websted, hvis du stadig har HTTP-URL’er. De vil få 4xx- og 5xx HTTP-statuskoder i stedet for dit indhold.
En undersøgelse af rankingfaktorer foretaget af SEMrush viste, at HTTPS nu er en meget stærk rankingfaktor og kan påvirke dit websteds placeringer.
Sørg for at skifte over, og når du gør det, skal du bruge denne tjekliste for at sikre en problemfri overgang.
Næst skal du kigge efter andre statuskodefejl. Rapporten om crawl af dit websted giver dig en liste over URL-fejl, herunder 404-fejl. Du kan også få en liste fra Google Search Console, som indeholder en detaljeret opdeling af potentielle fejl. Sørg for, at din Google Search Console-fejlliste altid er tom, og at du retter fejl, så snart de opstår.
Til sidst skal du sørge for, at SSL-certifikatet er korrekt. Du kan bruge SEMrushs webstedskontrolværktøj til at få en rapport.
Kontroller XML sitemap-status
XML sitemap tjener som et kort for Google og andre søgemaskiners crawlere. Det hjælper i bund og grund crawlerne med at finde siderne på dit websted og dermed rangere dem i overensstemmelse hermed.
Du bør sikre, at dit websteds XML-sitemap opfylder nogle få vigtige retningslinjer:
- Sørg for, at dit sitemap er formateret korrekt i et XML-dokument
- Sørg for, at det følger XML-sitemap-protokollen
- Har alle opdaterede sider på dit websted i sitemapet
- Sender sitemapet til din Google Search Console.
Hvordan sender du dit XML-sitemap til Google?
Du kan sende dit XML-sitemap til Google via Google Search Console-værktøjet Sitemaps. Du kan også indsætte sitemapet (dvs. http://example.com/sitemap_location.xml) et hvilket som helst sted i din robots.txt-fil.
Sørg for, at dit XML-sitemap er uberørt, med alle URL’er, der returnerer 200-statuskoder og korrekte canonicals. Du ønsker ikke at spilde værdifuldt crawlbudget på duplikerede eller ødelagte sider.
Kontroller webstedets indlæsningstid
Din hjemmesides indlæsningstid er en anden vigtig teknisk SEO-metrik, som du bør kontrollere. Ifølge rapporten om tekniske SEO-fejl via SEMrush har over 23 % af webstederne langsomme sideindlæsningstider.
Sitehastighed handler om brugeroplevelse og kan påvirke andre vigtige målinger, som søgemaskinerne bruger til rangering, f.eks. afvisningsprocent og tid på siden.
For at finde dit webstedets indlæsningstid kan du bruge Googles PageSpeed Insights-værktøj. Du skal blot indtaste webadressen til dit websted og lade Google gøre resten.
Du får endda målinger af webstedets indlæsningstid for mobile enheder.
Dette er blevet stadig vigtigere efter Googles udrulning af mobile-first indexing. Ideelt set bør din sideindlæsningstid være mindre end 3 sekunder. Hvis den er længere for enten mobil eller desktop, er det på tide at begynde at justere elementer på dit websted for at reducere sidens indlæsningstid for at opnå bedre placeringer.
Sørg for, at dit websted er mobilvenligt
Dit websted skal være mobilvenligt for at forbedre teknisk SEO og placeringer i søgemaskinerne. Dette er et ret nemt SEO-element at kontrollere ved hjælp af Googles mobilvenlige test: Du skal blot indtaste dit websted og få værdifuld indsigt i dit websteds mobiltilstand.
Du kan endda indsende dine resultater til Google, så de kan få at vide, hvordan dit websted klarer sig.
Et par mobilvenlige løsninger omfatter:
- Forøg skriftstørrelsen
- Indsæt YouTube-videoer
- Komprimer billeder
- Brug Accelerated Mobile Pages (AMP).
Gennemse for kannibalisering af nøgleord
Keyword cannibalization kan skabe forvirring blandt søgemaskinerne. Hvis du f.eks. har to sider i søgeordskonkurrence, skal Google afgøre, hvilken side der er bedst.
“Følgelig har hver side en lavere CTR, formindsket autoritet og lavere konverteringsrater, end en konsolideret side vil have,” forklarede Aleh Barysevich fra Search Engine Journal.
En af de mest almindelige faldgruber ved søgeordskannibalisering er at optimere forsiden og undersiden for de samme søgeord, hvilket er almindeligt i lokal SEO. Brug Google Search Console’s Performance-rapport til at kigge efter sider, der konkurrerer om de samme søgeord. Brug filteret til at se, hvilke sider der har de samme søgeord i URL’en, eller søg efter søgeord for at se, hvor mange sider der rangerer for de samme søgeord.
I dette eksempel kan du se, at der er mange sider på det samme websted med det samme præcise søgeord. Det kan være ideelt at konsolidere nogle få af disse sider, hvor det er muligt, for at undgå kannibalisering af søgeord.
Tjek dit websteds robots.txt-fil
Hvis du bemærker, at alle dine sider ikke er indekseret, er det første sted at kigge, din robots.txt-fil.
Der er nogle gange tilfælde, hvor webstedsejere ved et uheld blokerer sider fra søgemaskinernes crawlning. Dette gør det nødvendigt at kontrollere din robots.txt-fil.
Når du undersøger din robots.txt-fil, skal du kigge efter “Disallow: /”
Dette fortæller søgemaskinerne, at de ikke må crawle en side på dit websted, eller måske endda hele dit websted. Sørg for, at ingen af dine relevante sider ved et uheld bliver udelukket i din robots.txt-fil.
Udfør en Google-webstedsøgning
Med hensyn til indeksering af søgemaskiner er der en nem måde at kontrollere, hvor godt Google indekserer dit websted. I Google-søgning skriver du “site:yourwebsite.com”:
Det vil vise dig alle de sider, der er indekseret af Google, som du kan bruge som reference. Et par ord af forsigtighed, dog: Hvis dit websted ikke er øverst på listen, har du måske en Google-bøde på hånden, eller du blokerer for, at dit websted bliver indekseret.
Tjek efter duplikerede metadata
Denne tekniske SEO-fauxpas er meget almindelig for e-handelswebsteder og store websteder med hundredvis til tusindvis af sider. Faktisk har næsten 54 % af webstederne dobbelt metadata, også kendt som metabeskrivelser, og ca. 63 % mangler helt metabeskrivelser.
Duplikate metabeskrivelser opstår, når lignende produkter eller sider simpelthen har indhold, der er kopieret og indsat i feltet for metabeskrivelser.
En detaljeret SEO-revision eller en crawlrapport vil advare dig om problemer med metabeskrivelser. Det kan tage noget tid at få unikke beskrivelser på plads, men det er det værd.
Metabeskrivelseslængde
Mens du kontrollerer alle dine metabeskrivelser for fejl i forbindelse med duplikatindhold, kan du også optimere dem ved at sikre, at de har den korrekte længde. Dette er ikke en vigtig rankingfaktor, men det er en teknisk SEO-taktisk metode, der kan forbedre din CTR i SERP’erne.
Den seneste ændring af længden af metabeskrivelser har øget antallet af 160 tegn til 320 tegn. Det giver dig masser af plads til at tilføje nøgleord, produktspecifikationer, placering (til lokal SEO) og andre vigtige elementer.
Tjek efter duplikatindhold på hele webstedet
Duplikatindhold i metabeskrivelser er ikke det eneste duplikatindhold, du skal være på udkig efter, når det kommer til teknisk SEO. Næsten 66 % af alle websites har problemer med duplicate content.
Copyscape er et fantastisk værktøj til at finde duplicate content på internettet. Du kan også bruge Screaming Frog, Site Bulb eller SEMrush til at identificere duplikering.
Når du har din liste, er det blot et spørgsmål om at køre siderne igennem og ændre indholdet for at undgå duplikering.
Tjek efter brudte links
Alle typer af brudte links er dårlige for din SEO; de kan spilde crawlbudget, skabe en dårlig brugeroplevelse og føre til lavere placeringer. Derfor er det vigtigt at identificere og reparere brudte links på dit website.
En måde at finde brudte links på er ved at tjekke din crawl-rapport. Dette vil give dig et detaljeret overblik over hver enkelt URL, der har brudte links.
Du kan også bruge DrLinkCheck.com til at kigge efter brudte links. Du skal blot indtaste dit websteds URL og vente på, at rapporten genereres.
Summary
Der er en række tekniske SEO-elementer, som du kan tjekke under din næste SEO-revision. Fra XML Sitemaps til duplicate content er det et must at være proaktiv omkring optimering on-page og off-page.
Skriv et svar