Værktøj · SEO basics

Robots.txt Generator

Opret en korrekt robots.txt-fil og styr hvad søgemaskiner må (og ikke må) crawle.

Hvad er robots.txt – og hvorfor er den vigtig?

robots.txt er en simpel tekstfil, der ligger i roden af dit domæne (fx https://ditdomæne.dk/robots.txt). Den fortæller søgemaskiner (som Google), hvilke områder de må og ikke må crawle.

  • Begræns crawling af irrelevante eller følsomme områder (fx /wp-admin/ eller interne søgesider)
  • Skån dit crawlbudget på store websites
  • Link til dit sitemap.xml så nye sider findes hurtigere
Bemærk: Disallow stopper crawling, ikke indeksering. En URL kan stadig optræde i søgeresultater, hvis den linkes udefra.

Sådan bruger du værktøjet

  1. Indsæt dit sitemap-link (valgfrit – anbefales)
  2. Tilføj stier du vil tillade (sjældent nødvendigt) og blokere
  3. Klik Generér → kopiér eller download din robots.txt

Placér filen i webroden: https://ditdomæne.dk/robots.txt (ikke i en undermappe).

Generér robots.txt

Forhåndsvisning


              

Hurtige eksempler

Standard (tillad alt + sitemap)

User-agent: *
Sitemap: https://www.ditdomæne.dk/sitemap.xml

Blokér søgesider & carts

User-agent: *
Disallow: /?s=
Disallow: /search
Disallow: /cart
Sitemap: https://www.ditdomæne.dk/sitemap.xml

Typiske fejl du skal undgå

  • Blokere hele sitet ved en fejl: Disallow: / (brug kun midlertidigt)
  • Tro at Disallow fjerner indeksering: den stopper kun crawling
  • Glemt sitemap-linje: gør det sværere at finde nye sider
  • Forkerte stier: tjek case, trailing slash og wildcards

Test og validering

  • Tjek live: /robots.txt (skal returnere 200 OK)
  • GSC → Indstillinger → Crawlstatistik for at se eventuelle fejl
  • Valider dine regler på et par vigtige URLs
Annonce · Hosting

Klar til at få dit website online?

Du har robots.txt på plads – næste skridt er at få dit site live. Simply.com gør det nemt at købe domæne & webhotel på få minutter.

Køb domæne & hosting hos Simply.com

💡 Klar til at få dit domæne online?

Start hos DanDomain →