Skip to content

Archives

  • januar 2022
  • december 2021
  • november 2021
  • oktober 2021
  • september 2021
  • august 2021
  • juli 2021

Categories

  • Ingen kategorier
Historia Online

De 12 vigtigste elementer i en teknisk SEO-revision

admin - november 10, 2021

I modsætning til hvad mange tror, er teknisk SEO ikke alt for udfordrende, når du først har styr på det grundlæggende; du bruger måske endda nogle af disse taktikker uden at vide det.

Det er dog vigtigt at vide, at dit websted sandsynligvis har en eller anden form for teknisk problem. “Der findes ingen perfekte websteder uden plads til forbedringer”, forklarede Elena Terenteva fra SEMrush. “Hundredvis og endda tusindvis af problemer kan forekomme på dit websted.”

For eksempel havde over 80 % af de undersøgte websteder 4xx fejl i form af brudte links ifølge en SEMrush-undersøgelse fra 2017, og mere end 65 % af webstederne havde duplicate content.

I sidste ende ønsker du, at dit websted skal ranke bedre, få bedre trafik og skabe flere konverteringer. Teknisk SEO handler om at rette fejl for at få det til at ske. Her er 12 tekniske SEO-elementer, som du skal kontrollere for at opnå maksimal optimering af webstedet.

  • Identificer crawlfejl med en crawlrapport
  • Tjek HTTPS-statuskoder
  • Kontroller XML sitemap-status
  • Hvordan sender du dit XML-sitemap til Google?
  • Kontroller webstedets indlæsningstid
  • Sørg for, at dit websted er mobilvenligt
  • Gennemse for kannibalisering af nøgleord
  • Tjek dit websteds robots.txt-fil
  • Udfør en Google-webstedsøgning
  • Tjek efter duplikerede metadata
  • Metabeskrivelseslængde
  • Tjek efter duplikatindhold på hele webstedet
  • Tjek efter brudte links
  • Summary

Identificer crawlfejl med en crawlrapport

En af de første ting, du skal gøre, er at køre en crawlrapport for dit websted. En crawlrapport eller site audit giver indsigt i nogle af dit sites fejl.

Du vil se dine mest presserende tekniske SEO-problemer, f.eks. duplikatindhold, lav sidehastighed eller manglende H1/H2-tags.

Du kan automatisere site audits ved hjælp af en række forskellige værktøjer og arbejde dig igennem listen over fejl eller advarsler, der er oprettet af crawlen. Dette er en opgave, som du bør gennemgå hver måned for at holde dit websted rent for fejl og så optimeret som muligt.

Tjek HTTPS-statuskoder

Overgang til HTTPS er et must, fordi søgemaskiner og brugere ikke vil have adgang til dit websted, hvis du stadig har HTTP-URL’er. De vil få 4xx- og 5xx HTTP-statuskoder i stedet for dit indhold.

En undersøgelse af rankingfaktorer foretaget af SEMrush viste, at HTTPS nu er en meget stærk rankingfaktor og kan påvirke dit websteds placeringer.

Sørg for at skifte over, og når du gør det, skal du bruge denne tjekliste for at sikre en problemfri overgang.

Næst skal du kigge efter andre statuskodefejl. Rapporten om crawl af dit websted giver dig en liste over URL-fejl, herunder 404-fejl. Du kan også få en liste fra Google Search Console, som indeholder en detaljeret opdeling af potentielle fejl. Sørg for, at din Google Search Console-fejlliste altid er tom, og at du retter fejl, så snart de opstår.

Til sidst skal du sørge for, at SSL-certifikatet er korrekt. Du kan bruge SEMrushs webstedskontrolværktøj til at få en rapport.

Kontroller XML sitemap-status

XML sitemap tjener som et kort for Google og andre søgemaskiners crawlere. Det hjælper i bund og grund crawlerne med at finde siderne på dit websted og dermed rangere dem i overensstemmelse hermed.

Du bør sikre, at dit websteds XML-sitemap opfylder nogle få vigtige retningslinjer:

  • Sørg for, at dit sitemap er formateret korrekt i et XML-dokument
  • Sørg for, at det følger XML-sitemap-protokollen
  • Har alle opdaterede sider på dit websted i sitemapet
  • Sender sitemapet til din Google Search Console.

Hvordan sender du dit XML-sitemap til Google?

Du kan sende dit XML-sitemap til Google via Google Search Console-værktøjet Sitemaps. Du kan også indsætte sitemapet (dvs. http://example.com/sitemap_location.xml) et hvilket som helst sted i din robots.txt-fil.

Sørg for, at dit XML-sitemap er uberørt, med alle URL’er, der returnerer 200-statuskoder og korrekte canonicals. Du ønsker ikke at spilde værdifuldt crawlbudget på duplikerede eller ødelagte sider.

Kontroller webstedets indlæsningstid

Din hjemmesides indlæsningstid er en anden vigtig teknisk SEO-metrik, som du bør kontrollere. Ifølge rapporten om tekniske SEO-fejl via SEMrush har over 23 % af webstederne langsomme sideindlæsningstider.

Sitehastighed handler om brugeroplevelse og kan påvirke andre vigtige målinger, som søgemaskinerne bruger til rangering, f.eks. afvisningsprocent og tid på siden.

For at finde dit webstedets indlæsningstid kan du bruge Googles PageSpeed Insights-værktøj. Du skal blot indtaste webadressen til dit websted og lade Google gøre resten.

Du får endda målinger af webstedets indlæsningstid for mobile enheder.

Dette er blevet stadig vigtigere efter Googles udrulning af mobile-first indexing. Ideelt set bør din sideindlæsningstid være mindre end 3 sekunder. Hvis den er længere for enten mobil eller desktop, er det på tide at begynde at justere elementer på dit websted for at reducere sidens indlæsningstid for at opnå bedre placeringer.

Sørg for, at dit websted er mobilvenligt

Dit websted skal være mobilvenligt for at forbedre teknisk SEO og placeringer i søgemaskinerne. Dette er et ret nemt SEO-element at kontrollere ved hjælp af Googles mobilvenlige test: Du skal blot indtaste dit websted og få værdifuld indsigt i dit websteds mobiltilstand.

Du kan endda indsende dine resultater til Google, så de kan få at vide, hvordan dit websted klarer sig.

Et par mobilvenlige løsninger omfatter:

  • Forøg skriftstørrelsen
  • Indsæt YouTube-videoer
  • Komprimer billeder
  • Brug Accelerated Mobile Pages (AMP).

Gennemse for kannibalisering af nøgleord

Keyword cannibalization kan skabe forvirring blandt søgemaskinerne. Hvis du f.eks. har to sider i søgeordskonkurrence, skal Google afgøre, hvilken side der er bedst.

“Følgelig har hver side en lavere CTR, formindsket autoritet og lavere konverteringsrater, end en konsolideret side vil have,” forklarede Aleh Barysevich fra Search Engine Journal.

En af de mest almindelige faldgruber ved søgeordskannibalisering er at optimere forsiden og undersiden for de samme søgeord, hvilket er almindeligt i lokal SEO. Brug Google Search Console’s Performance-rapport til at kigge efter sider, der konkurrerer om de samme søgeord. Brug filteret til at se, hvilke sider der har de samme søgeord i URL’en, eller søg efter søgeord for at se, hvor mange sider der rangerer for de samme søgeord.

I dette eksempel kan du se, at der er mange sider på det samme websted med det samme præcise søgeord. Det kan være ideelt at konsolidere nogle få af disse sider, hvor det er muligt, for at undgå kannibalisering af søgeord.

Tjek dit websteds robots.txt-fil

Hvis du bemærker, at alle dine sider ikke er indekseret, er det første sted at kigge, din robots.txt-fil.

Der er nogle gange tilfælde, hvor webstedsejere ved et uheld blokerer sider fra søgemaskinernes crawlning. Dette gør det nødvendigt at kontrollere din robots.txt-fil.

Når du undersøger din robots.txt-fil, skal du kigge efter “Disallow: /”

Dette fortæller søgemaskinerne, at de ikke må crawle en side på dit websted, eller måske endda hele dit websted. Sørg for, at ingen af dine relevante sider ved et uheld bliver udelukket i din robots.txt-fil.

Udfør en Google-webstedsøgning

Med hensyn til indeksering af søgemaskiner er der en nem måde at kontrollere, hvor godt Google indekserer dit websted. I Google-søgning skriver du “site:yourwebsite.com”:

Det vil vise dig alle de sider, der er indekseret af Google, som du kan bruge som reference. Et par ord af forsigtighed, dog: Hvis dit websted ikke er øverst på listen, har du måske en Google-bøde på hånden, eller du blokerer for, at dit websted bliver indekseret.

Tjek efter duplikerede metadata

Denne tekniske SEO-fauxpas er meget almindelig for e-handelswebsteder og store websteder med hundredvis til tusindvis af sider. Faktisk har næsten 54 % af webstederne dobbelt metadata, også kendt som metabeskrivelser, og ca. 63 % mangler helt metabeskrivelser.

Duplikate metabeskrivelser opstår, når lignende produkter eller sider simpelthen har indhold, der er kopieret og indsat i feltet for metabeskrivelser.

En detaljeret SEO-revision eller en crawlrapport vil advare dig om problemer med metabeskrivelser. Det kan tage noget tid at få unikke beskrivelser på plads, men det er det værd.

Metabeskrivelseslængde

Mens du kontrollerer alle dine metabeskrivelser for fejl i forbindelse med duplikatindhold, kan du også optimere dem ved at sikre, at de har den korrekte længde. Dette er ikke en vigtig rankingfaktor, men det er en teknisk SEO-taktisk metode, der kan forbedre din CTR i SERP’erne.

Den seneste ændring af længden af metabeskrivelser har øget antallet af 160 tegn til 320 tegn. Det giver dig masser af plads til at tilføje nøgleord, produktspecifikationer, placering (til lokal SEO) og andre vigtige elementer.

Tjek efter duplikatindhold på hele webstedet

Duplikatindhold i metabeskrivelser er ikke det eneste duplikatindhold, du skal være på udkig efter, når det kommer til teknisk SEO. Næsten 66 % af alle websites har problemer med duplicate content.

Copyscape er et fantastisk værktøj til at finde duplicate content på internettet. Du kan også bruge Screaming Frog, Site Bulb eller SEMrush til at identificere duplikering.

Når du har din liste, er det blot et spørgsmål om at køre siderne igennem og ændre indholdet for at undgå duplikering.

Tjek efter brudte links

Alle typer af brudte links er dårlige for din SEO; de kan spilde crawlbudget, skabe en dårlig brugeroplevelse og føre til lavere placeringer. Derfor er det vigtigt at identificere og reparere brudte links på dit website.

En måde at finde brudte links på er ved at tjekke din crawl-rapport. Dette vil give dig et detaljeret overblik over hver enkelt URL, der har brudte links.

Du kan også bruge DrLinkCheck.com til at kigge efter brudte links. Du skal blot indtaste dit websteds URL og vente på, at rapporten genereres.

Summary

Der er en række tekniske SEO-elementer, som du kan tjekke under din næste SEO-revision. Fra XML Sitemaps til duplicate content er det et must at være proaktiv omkring optimering on-page og off-page.

Skriv et svar Annuller svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *

Seneste indlæg

  • En dag i Athen: Den perfekte rejseplan for historieelskere
  • PMC
  • Lørdag aften Rodeo
  • Vandalia
  • Sportsdeltagelse
  • Deutsch
  • Nederlands
  • Svenska
  • Dansk
  • Español
  • Français
  • Português
  • Italiano
  • Română
  • Polski
  • Čeština
  • Magyar
  • Suomi
  • 日本語

Arkiver

  • januar 2022
  • december 2021
  • november 2021
  • oktober 2021
  • september 2021
  • august 2021
  • juli 2021

Meta

  • Log ind
  • Indlægsfeed
  • Kommentarfeed
  • WordPress.org

Copyright Historia Online 2022 | Theme by ThemeinProgress | Proudly powered by WordPress