Markedet for AI-modeller er eksploderet, og de mest brugte modeller kan efterhånden ret forskellige ting. Det betyder også, at du som bruger skal være skarp på, hvilke modeller du bruger til hvilke formål, og hvordan du prompter forskelligt til især GPT/chat-modeller og reasoning-modeller. Det kalder på en god gammeldags guide.
OpenAI har o1, o3-mini, 03-mini-high, GPT-4o og nu GPT-4.5. DeepSeek har V3 og R1. Perplexity har sonar-pro og sonar-reasoning. Google har Gemini 2.0 Flash og Gemini 1.5 Pro. Anthropic har Claude 3.5 Haiku og nu også 3.7 Sonnet.
Det vrimler med AI-modeller, og vi forstår godt, hvis du som bruger kan have svært ved at skelne mellem dem og deres formål. Nogle er GPT/chat-modeller mens andre er de nyere reasoning-modeller. Og netop den difference er faktisk ret vigtig at kende.
Der er nemlig ret stor forskel på brugsscenarierne for de to typer modeller. Samtidigt er der stor forskel på, hvordan du prompter de to typer modeller for at få det bedst mulige output.
Det er altså ikke længere one-size-fits-all, når det kommer til modelvalg og god prompting. Men bare rolig, i denne guide gør vi vores bedste for at forklare, hvornår du skal bruge henholdsvis chat- og reasoning-modeller – og ikke mindst hvordan, du bruger dem bedst.
Skal jeg bruge Chat eller Reasoning?
Den helt grundlæggende forskel på de to familier af modeller ligger, praktisk nok, i navngivningen.
Chat-modellerne (også kaldet GPT) er mere baseret på samtale og interaktion. Det er for eksempel OpenAI’s primære GPT-4o model eller DeepSeeks V3. De er designet til hurtig interaktion, hvor du gennem dialog guider modellen mod et brugbart svar. Hvor mange spørgsmål eller rettelser, du skal give modellen, før du har et brugbart svar, er meget afhængigt af, hvor meget kontekst, du har givet modellen i din første prompt.
Chat-modellerne er de hurtigste og mest kosteffektive. De er gode til at eksekvere på konkrete opgaver. Brug dem derfor, når dine prioriteter er:
- Hastighed og pris – hvis du skal have et hurtigt svar, og hastighed og pris er vigtigere end præcision og rigtighed. Kan for eksempel være en søgning efter de 5 bedste tv på markedet netop nu med GPT-4o, eller det kunne være 5 bud på en sjov fødselsdagshilsen til din kollega.
- Konkret opgaveløsning – hvis du har en veldefineret opgave og kan give modellen en præcis opgavebeskrivelse, som den kan tage udgangspunkt i. Det kan for eksempel være at skrive en tekst, opsummere pointer fra et stort dokument eller oversætte en tekst til et andet sprog.
- Interaktion – hvis du har brug for en sparringspartner på et utal af opgaver, hvis du gerne vil have nogen at brainstorme idéer med eller bare har brug for at vende verdenssituationen. Chat-modellerne er designet til hurtigere dialog og mere frem-og-tilbage interaktion.
Reasoning-modellerne fjerner derimod store dele af dialog-elementet, som chat-modellerne bygger på. I stedet ræsonnerer disse modeller med sig selv, og stiller sig kritisk over for egne svar, inden den præsenterer brugeren for det endelige output. Det betyder, at reasoning-modeller er designet til at tænke længere og dybere over komplekse opgaver. Det er for eksempel OpenAI’s o1, DeepSeek R1 og Claude 3.7 Sonnet. Disse er brugbare til domæner, der ellers ville kræve en menneskelig ekspert, såsom matematik, kodning, forskning, økonomi og jura.
Det betyder, at reasoning-modellerne egner sig bedst til mere komplekse opgaver, hvor prioriteterne er:
- Kompleks problemløsning – hvis du har et problem eller en opgave med større kompleksitet, som for eksempel kræver flere steps, meget planlægning eller analyse af større datasæt. Det kan for eksempel være at finde relevante data i et stort, ustruktureret datasæt og definere mønstre heri, eller at planlægge et projekt og definere next steps for dig og dit team.
- Præcision og reliabilitet – hvis du har en kompleks opgave, og du gerne vil være (mere) sikker på, at du kan stole på AI’ens output. Reasoning-modeller er for eksempel gode til at planlægge strategier og processer, ligesom de er gode til at vurdere, hvilke informationer og overvejelser, der er de vigtigste inden for et givent område.
- Kodekvalitet – hvis du er udvikler og bruger AI til at reviewe, debugge eller forbedre din kode, så er reasoning-modellerne klart bedst hertil.
OpenAI skriver selv om deres modeller, at reasoning-modellerne kan ses som planlæggende modeller, mens chat- eller GPT-modellerne er mere eksekverende. I Vertica har vi også haft succes med den logik ved at opsætte AI-agenter i et netværk, hvor reasoning-modellerne planlægger og definerer opgaver, som de så sætter GPT-modellerne til at løse. Det er for eksempel sådan vores Vertica Newshound fungerer.

Hvordan prompter jeg bedst til de forskellige modeller?
På baggrund af de ovennævnte forskelle mellem chat- og reasoning-modeller kan det hurtigt lyde som om, at du bare skal bruge chat-modellerne til det simple, og reasoning-modeller til det mere komplekse. Men helt så enkelt er det ikke.
Effektiviteten og kvaliteten af outputtet handler nemlig også meget om, hvordan du prompter til de forskellige modeller. Begge model-typer kan fortsat give dig dårlige (eller direkte forkerte) svar, hvis din prompt ikke giver mening for dem. Derfor er det en stor hjælp at vide lidt om, hvordan modellerne responderer på forskellige prompts.
Prompting til chat-modeller:
Kutymen ift. chat-modellerne har længe været, at de skal have så meget kontekst som muligt for at give de bedst mulige svar. Det inkluderer blandt andet at prompte dem specifikt til, hvordan de skal agere, hvordan de skal gå til en opgave, eller at give dem eksempler at gå ud fra. Et par af de mest brugbare teknikker er:
- Few-shot prompting - Ved at inkludere et par eksempler i prompten kan modellen bedre forstå opgaven og producere mere præcise resultater. For eksempel: "Her er to eksempler på dataanalyse. Brug dem som reference til at analysere det nye datasæt."
- Tildel en rolle eller persona - Ved at angive en specifik rolle til modellen kan du styre dens svar i en ønsket retning. For eksempel: "Du er en erfaren marketingkonsulent. Giv forslag til at øge vores online tilstedeværelse."
- Chain-of-Thought (CoT) - Ved at strukturere prompten til at inkludere en trinvis tankegang kan modellen bedre håndtere komplekse opgaver. For eksempel: "Analyser dataene trin for trin og giv en konklusion baseret på dine fund."
Disse teknikker giver ofte de bedste outputs fra de populære chat-modeller som GPT-4o. I hvert fald når du kun bruger en enkelt prompt. Problemerne opstår til gengæld i, at chat-modellerne ikke er designet til at verificere og korrigere sine egne svar undervejs, hvorfor tidlige fejl risikerer at blive taget med videre.
Samtidigt fungerer Chain-of-Thought-teknikken kun for den enkelte prompt i chat-modellerne, så hvis du har opfølgende dialog med modellen, følger den ikke den opsatte logik. Det er en af de problematikker, som reasoning-modellerne forsøger at råde bod på.
Prompting til reasoning-modeller:
Reasoning-modellerne er designet til at udføre opgaver ud fra en struktureret tilgang til problemløsning, hvor de undervejs retter sine egne fejl og verificerer det endelige output – efter bedste evne selvfølgelig, vi vil altid råde til en menneskelig, kritisk gennemgang af outputtet uanset hvilken model, du bruger.
Ift. prompt-teknik betyder dette, at Chain-of-Thought og persona-forklaring bliver markant mindre vigtigt. Faktisk kan disse ekstra informationer om, hvordan modellen skal gå til opgaven, ende med at forvirre AI’en mere, end det gavner. Derfor skal du mere instruere reasoning-modellerne i hvad, du skal bruge fra dem, og ikke så meget hvordan, de skal løse opgaven:
- Hold dine prompts enkle og direkte: Reasoning-modeller reagerer bedst på klare og præcise instruktioner uden overflødig information.
Eksempel: I stedet for at skrive:
"Forestil dig, at du er en erfaren e-commerce manager, der skal researche på og analysere, hvordan forskellige prisstrategier kan påvirke online-salget inden for B2B-markedet over tid. Kan du venligst analysere dette?"
Skriv:
"Analyser hvordan prisstrategier påvirker online-salg inden for B2B i Danmark.”
- Undgå "tænk trin for trin" instruktioner - Disse modeller udfører allerede internt ræsonnement, så instruktioner som "tænk trin for trin" er unødvendige og kan endda forringe modellens output.
Eksempel: I stedet for at skrive:
"Forklar trin for trin, hvordan implementeringen af en ny marketingstrategi vil påvirke vores kundetilfredshed."
Skriv:
"Forklar, hvordan en ny marketingstrategi vil påvirke kundetilfredsheden."
- Start med zero-shot prompting - Reasoning-modeller præsterer ofte godt uden eksempler (zero-shot). Hvis opgaven er kompleks, kan det dog være nyttigt at inkludere et par relevante eksempler (few-shot) for at guide modellen. Sørg for, at disse eksempler stemmer nøje overens med dine instruktioner for at undgå forvirring. Sørg også for at have alle relevante afgræsninger som ”Dit forslag til en løsning skal holde sig inden for et budget på 5.000 kr. og en deadline om 14 dage” med i den første prompt.
- Brug delimeters for tydelighed - Anvendelse af delimiters (afgrænsere) som markdown, XML-tags eller sektionstitler kan hjælpe modellen med at skelne mellem forskellige dele af inputtet. Dette gør det lettere for modellen at fortolke og behandle informationen korrekt. Det gælder i øvrigt for alle typer modeller.
- Hav et tydeligt slutmål - I dine instruktioner skal du sørge for at angive dine kriterier for et succesfuldt svar så specifikt som muligt. Du kan med fordel opfordre modellen til at blive ved med at ræsonnere og iterere, indtil outputtet matcher dine succeskriterier. Det kan også hjælpe at sige til modellen, at den skal stille dig afklarende spørgsmål, inden den går i gang med at løse opgaven. På den måde sikrer du, at modellen har fået nok information til at løse opgaven.
Bonusinfo: Deep Research-værktøjerne, som de fleste store AI-udbydere efterhånden har, bygger på reasoning-modeller, så du kan også bruge denne prompt-teknik til dem.
Brug for en opsummering?
Godt gået, hvis du er scrollet hele vejen herned. Så er dagens læsning vist også klaret.
Forhåbentlig har denne guide givet dig en bedre forståelse af forskellene mellem de klassiske chat-modeller og de nyere reasoning-modeller. Og ikke mindst hvordan du skriver de bedste prompts til dem hver især.
Modellerne udvikler sig hele tiden, så der er ikke ét endegyldigt svar på, hvad den bedste prompt-teknik er til den enkelte model. Men forståelsen for, hvordan modellerne er designet, og hvordan deres ”tankeproces” fungerer, er nyttig viden, når du skal prompte til dem.
Helt kort sagt, er chat-modellerne bedst til dialog, hurtig sparring og simpel opgaveløsning. Samtidigt er de mest kosteffektive. Reasoning-modellerne er derimod mere selvrefleksive og i stand til at korrigere egne fejl og verificere sine svar. Det gør dem bedst til mere komplekse problemstillinger og til emner, der kræver pålidelige, faktuelle svar som matematik, kodning, økonomi eller jura.