Highlights fra morgenmøde d. 7/5 2026

AI SEO/GEO i praksis

Schema.org, robots.txt og AI-læsbar struktur

AI ændrer fundamentalt måden, brugere finder og får information på. På morgenmødet satte vi fokus på, hvordan organisationer kan arbejde strategisk med AI SEO/GEO for at sikre, at deres indhold forstås, prioriteres og citeres korrekt af AI-modeller som ChatGPT, Gemini og Claude.

Vi demonstrerede desuden GoPublics GEO-værktøjer til analyse af Common Crawl-data, optimering af robots.txt og generering af Schema.org-markup – med fokus på at gøre websites mere teknisk tilgængelige og maskinlæsbare for AI.

Gå til GoPublic gratis værktøjer her

Af Keld Bøg, Senior SEO Specialist (InboundCph)

AI ændrer måden brugere finder information på

Keld Bøg satte fokus på, hvordan søgeadfærd ændrer sig markant i takt med, at flere brugere får svar direkte gennem AI-chat og AI-genererede anbefalinger frem for klassiske søgeresultater. Pointen var klar: Vi bevæger os fra links og klik til citeringer og anbefalinger i AI-svar.

Download Keld's præsentation her

AI SEO/GEO er mere end klassisk SEO

AI-modeller forsøger ikke bare at matche keywords – de forsøger at forstå betydning, sammenhæng og intention. Derfor kan samme entity beskrives på mange forskellige måder afhængigt af kontekst og brugerens spørgsmål. 

GEO er en løbende proces

Et centralt budskab var, at AI SEO/GEO ikke er et projekt med en slutdato. Det er en kontinuerlig disciplin, hvor indhold, struktur, teknik og autoritet skal spille sammen over tid. 

Struktur og schema er afgørende

Schema.org blev fremhævet som et centralt lag oven på indholdet, der hjælper AI med at forstå og tilskrive information korrekt. Schema gør ikke indholdet sandt – men gør det lettere for maskiner at forstå. 

Af Rasmus Rudolf, Ai-Visonary & Partner (GoPublic)

Når AI læser jeres website, afgør I hvad den ser

GEO handler om at gøre jeres website lettere for AI-modeller at forstå og prioritere korrekt. På morgenmødet viste Rasmus Rudolf, hvordan Common Crawl, robots.txt og schema.org spiller en central rolle i, hvilke oplysninger AI-systemer som ChatGPT, Claude og Gemini bruger i deres svar.  

Hent Rasmus' præsentation her

Tre centrale pointer fra morgenmødet

  1. AI prioriterer ikke alt indhold
    Common Crawl crawler kun et begrænset udsnit af internettet. Derfor er det vigtigt aktivt at prioritere, hvad AI-modellerne skal bruge deres crawl-kapacitet på.

  2. Robots.txt er blevet et AI-værktøj
    Ved at blokere støj og irrelevante sektioner kan man hjælpe AI-modellerne med at fokusere på det vigtigste indhold.

  3. Schema.org reducerer fejlsvar
    Struktureret data gør faktuelle oplysninger entydige for AI og forbedrer kvaliteten af svar om fx åbningstider, kontaktoplysninger og arrangementer.

Hvad kan man gøre i morgen?

 

Se optagelsen af hele "skrub-hjem-mødet"

Gik du glip af morgenmødet – eller vil du gense de konkrete demonstrationer og pointer?
Her kan du se hele optagelsen af webinaret om AI SEO/GEO, AI-læsbar struktur, Schema.org og robots.txt.

GoPublic gratis værktøjer

Gratis GEO Tool – analysér og forbedr jeres robots.txt

Gør jeres website klar til AI-crawling med en optimeret robots.txt
Vil I sikre, at AI-modeller og søgemaskiner fokuserer på det indhold, der faktisk skaber værdi? Med GoPublic Robot.txt Tool kan I gratis analysere jeres nuværende opsætning, se hvilke sider der indgår i Common Crawl, og generere en optimeret robots.txt klar til brug på jeres website.

Gratis GEO Tool – generér jeres Schema.org

Gør jeres organisation AI-læsbar med korrekt struktureret data
Vil I sikre, at jeres organisation bliver forstået og citeret korrekt af AI-modeller? Med GoPublic GEO Tool kan I gratis generere en færdig Schema.org JSON-fil, klar til indsættelse i sitets <head>.