
OpenAI publicerade den 7 augusti 2025 en officiell promptingguide för GPT-5. Guiden täcker agentiva arbetsflöden, kodutveckling, instruktionsföljning och parameterstyrning. För projektledare som arbetar med AI-verktyg i leveranser är guiden ett konkret underlag för att förstå hur GPT-5 skiljer sig från tidigare modeller och hur man konfigurerar den effektivt.
GPT-5 prompting – huvudpunkter
- GPT-5 introducerar en ny API-parameter kallad
verbositysom styr längden på modellens slutsvar. Parametern är separat frånreasoning_effortsom styr tänkande och verktygsanvändning. Cursor använde låg verbosity globalt men hög verbosity enbart för kodverktyg (källa: OpenAI, 2025-08-07). - OpenAI rekommenderar Responses API framför Chat Completions för agentiva flöden med GPT-5. I Tau-Bench Retail-tester ökade poängen från 73,9 till 78,2 procent enbart genom att byta till Responses API och inkludera
previous_response_id(källa: OpenAI, 2025-08-07). - GPT-5 introducerar
minimalsom ny lägsta nivå förreasoning_effort— avsedd för latenskänsliga användningsfall och som uppgradering från GPT-4.1. Vid minimal reasoning krävs mer detaljerade prompter för att hålla agenten på rätt spår (källa: OpenAI, 2025-08-07). - GPT-5 är känsligare för motstridiga instruktioner än tidigare modeller. Otydliga eller motsägelsefulla instruktioner gör att modellen spenderar reasoning-tokens på att försöka lösa konflikten i stället för att utföra uppgiften (källa: OpenAI, 2025-08-07).
- Tool preambles — korta uppdateringar om vad modellen gör och varför — förbättrar användarupplevelsen markant i långa agentiva körningar. OpenAI rekommenderar att styra frekvens och stil på preambles via systemprompt (källa: OpenAI, 2025-08-07).
- GPT-5 fungerar som meta-prompter för sig själv. Tidiga testare har förbättrat produktionsprompts genom att fråga GPT-5 vilka specifika fraser som bör läggas till eller tas bort för att undvika ett oönskat beteende (källa: OpenAI, 2025-08-07).
- För frontend-appar rekommenderar OpenAI Next.js (TypeScript), Tailwind CSS, shadcn/ui och Lucide Icons. GPT-5 är tränad för att bygga hela applikationer i ett enda anrop (källa: OpenAI, 2025-08-07).
Vad detta betyder för projektledare
- Instruktionskvalitet är viktigare med GPT-5 än med tidigare modeller. GPT-5 följer instruktioner med hög precision. Det innebär att vaga eller motstridiga krav i systemprompts ger sämre resultat än med äldre modeller. Projektledare bör granska alla AI-prompts i leveransen för logiska konflikter — OpenAI erbjuder ett prompt optimizer-verktyg för detta.
reasoning_effortär en direkt kostnadsstyrningspanel. Lägre reasoning effort minskar latens och kostnad per anrop. Projektledare som budgeterar för AI-drift bör specificera reasoning-nivå per användningsfall i systemkravspecifikationen — inte bara modellval.- Agentiva AI-system behöver explicita stopp- och eskaleringsregler. GPT-5 är tränad att fortsätta tills uppgiften är löst. Det är ett styrningsproblem om modellen har tillgång till externa system. Projektledare bör definiera tydliga villkor för när agenten ska pausa och involvera en människa.
- Cursor-exemplet är ett konkret referenscase för AI-integrering. Cursor-teamets dokumenterade prompttuning — inklusive hur de balanserade verbosity och autonomi — är ett tillämpbart mönster för alla team som integrerar GPT-5 i produktionsmiljöer.
Begrepp i artikeln
reasoning_effort: API-parameter som styr hur djupt GPT-5 tänker och hur villigt det använder verktyg. Nivåer: minimal, low, medium (standard), high.verbosity: Ny API-parameter i GPT-5 som styr längden på slutsvaret, separat från resonemangslängden.- Responses API: OpenAIs modernare API för konversationshantering som bevarar reasoning mellan verktygsanrop och ger lägre kostnad och högre prestanda jämfört med Chat Completions.
- Tool preamble: En kort textuppdatering som agenten ger innan den anropar ett verktyg — förklarar vad den ska göra och varför.
- Meta-promptning: Tekniken att använda GPT-5 för att analysera och förbättra egna prompts.
Vanliga frågor
Vad är nytt i GPT-5 jämfört med GPT-4.1 för prompting? GPT-5 introducerar parametern verbosity för att styra svarslängd och en ny minimal reasoning-nivå för låg latens. Modellen är mer känslig för motstridiga instruktioner och kräver mer noggrant konstruerade prompts för bästa resultat (källa: OpenAI, 2025-08-07).
Varför rekommenderar OpenAI Responses API för GPT-5? Responses API bevarar reasoning-spår mellan verktygsanrop, vilket minskar antalet tokens som krävs och förbättrar prestandan. I OpenAIs egna tester ökade Tau-Bench Retail-poängen från 73,9 till 78,2 procent enbart genom att byta API (källa: OpenAI, 2025-08-07).
Hur styr man GPT-5:s agentiva beteende? Med tydliga stop-conditions i systemprompt, reasoning_effort-parametern och explicita tool call-budgetar. För mer autonomi används persistence-prompts som instruerar modellen att fortsätta tills uppgiften är löst. För mer kontroll används strikta budgetar och krav på mänsklig bekräftelse (källa: OpenAI, 2025-08-07).
Vad är meta-promptning och hur används det? Meta-promptning innebär att man frågar GPT-5 vilka ändringar i en befintlig prompt som skulle ge ett bättre eller sämre beteende. OpenAI tillhandahåller en mall för detta i guiden. Flera tidiga testare har förbättrat produktionsprompts med denna metod (källa: OpenAI, 2025-08-07).
Källa: GPT-5 prompting guide / OpenAI Developers Cookbook, Anoop Kotha, Julian Lee, Eric Zakariasson, Erin Kavanaugh, publicerad 2025-08-07.
Läs även
- Konsten att Prompta AI – hur man instruerar AI-verktyg som ChatGPT och Claude
- Konsten att skapa effektiva Copilot-prompts: En guide med exempel
- OpenAI gpt-oss – första open-weight-modellerna sedan GPT-2
- AI-assistenter och verktyg för projektledare – vilken är bäst?
