OpenAI gpt-oss – första open-weight-modellerna sedan GPT-2 lanseras under Apache 2.0 - Projektledarpodden
Laptop med öppen kodredigerare och AI-visualisering – illustrerar lokal körning av OpenAI gpt-oss open-weight-modell i utvecklingsmiljö
Foto: DC Studio / magnific.com

OpenAI lanserade den 5 augusti 2025 sina första open-weight-modeller sedan GPT-2 år 2019. Modellerna heter gpt-oss-120b och gpt-oss-20b och är tillgängliga under Apache 2.0-licens. För projektledare och organisationer som vill köra AI lokalt, finjustera modeller eller minska beroendet av externa API:er är lanseringen ett konkret alternativ till slutna molntjänster.

OpenAI gpt-oss – huvudpunkter

  • OpenAI lanserade den 5 augusti 2025 gpt-oss-120b och gpt-oss-20b — två open-weight-modeller under Apache 2.0-licens. Det är de första open-weight-modellerna OpenAI släppt sedan GPT-2 år 2019 (källa: OpenAI, 2025-08-05).
  • gpt-oss-120b matchar eller överpresterar OpenAI o4-mini på tävlingskodning (Codeforces), allmän problemlösning (MMLU och HLE) och verktygsanvändning (TauBench). Modellen kör på en enda 80 GB GPU (källa: OpenAI, 2025-08-05).
  • gpt-oss-20b levererar resultat i nivå med OpenAI o3-mini på samma benchmarks och kör på edge-enheter med bara 16 GB minne (källa: OpenAI, 2025-08-05).
  • Båda modellerna är mixture-of-experts-arkitektur med 4-bitars kvantisering (MXFP4). De stödjer chain-of-thought med justerbara resonemangsnivåer (låg, medel, hög) och är optimerade för agentiva arbetsflöden med verktygsanvändning (källa: Hugging Face, 2025-08-05).
  • Modellerna är tränade med reinforcement learning och tekniker från OpenAIs mest avancerade interna modeller, inklusive o3. Vikterna är fritt tillgängliga för nedladdning på Hugging Face i MXFP4-format (källa: OpenAI, 2025-08-05).
  • OpenAI genomförde säkerhetsutvärderingar inklusive adversarial fine-tuning och bekräftade att gpt-oss-120b inte når tröskeln “High capability” inom biologiska, kemiska eller cybersäkerhetsrisker. Tre oberoende expertgrupper granskade metodiken (källa: OpenAI, 2025-08-05).
  • OpenAI lanserade ett Red Teaming Challenge med en prispott på 500 000 dollar för att uppmuntra säkerhetsforskare att identifiera nya säkerhetsproblem i modellerna (källa: OpenAI, 2025-08-05).
  • Modellerna finns tillgängliga via Azure AI Foundry och kan köras lokalt på Windows via Foundry Local. De stöds av plattformar som vLLM, Ollama, llama.cpp, LM Studio och AWS (källa: Microsoft Azure Blog, 2025-08-05).

Vad detta betyder för projektledare

  • Lokal AI-körning utan API-kostnader är nu möjlig med frontmodellprestanda. gpt-oss-20b kör på 16 GB minne — tillräckligt för moderna arbetsstationer. Det öppnar för lokala AI-implementationer i projekt med krav på dataintegritet, låg latens eller begränsad internetåtkomst.
  • Apache 2.0-licensen eliminerar licensrisk i kommersiella leveranser. Till skillnad från slutna modeller med restriktiva användningsvillkor är gpt-oss fritt att använda, modifiera och distribuera kommersiellt. Det förenklar juridisk granskning i upphandling och produktutveckling.
  • Finjustering möjliggör domänspecifika AI-lösningar. Open-weight-modeller kan finjusteras på organisationens egna data. Projektledare som planerar AI för specifika branscher — juridik, medicin, ingenjörsvetenskap — kan träna modellen på intern data utan att dela den med en extern leverantör.
  • Justerbar resonemangsnivå påverkar kostnad och svarstid. gpt-oss stöder tre resonemangsnivåer. Låg nivå ger snabba, energieffektiva svar. Hög nivå ger bättre precision men längre svarstid. Projektledare bör specificera resonemangsnivå per användningsfall i systemkravspecifikationen.

Begrepp i artikeln

  • Open-weight-modell: En AI-modell vars vikter (parametrar) är offentligt tillgängliga för nedladdning och lokal körning, till skillnad från slutna modeller som bara är tillgängliga via API.
  • Apache 2.0: Öppen licens som tillåter fri användning, modifiering och distribution — inklusive kommersiell användning — utan krav på att derivatverk ska vara öppen källkod.
  • Mixture-of-Experts (MoE): Modellarkitektur där bara en delmängd av parametrarna aktiveras per fråga. Minskar beräkningskostnad och energiförbrukning jämfört med täta modeller av samma storlek.
  • MXFP4: 4-bitars kvantiseringsformat som minskar modellens minnesbehov. Gör att gpt-oss-120b ryms på en enda 80 GB GPU.
  • Chain-of-thought (CoT): Teknik där modellen visar sitt steg-för-steg-resonemang innan den ger sitt slutsvar. Förbättrar precision vid komplexa uppgifter.

Vanliga frågor

Vad är OpenAI gpt-oss? gpt-oss är OpenAIs första open-weight-modeller sedan GPT-2 år 2019. De lanserades den 5 augusti 2025 i två storlekar — gpt-oss-120b och gpt-oss-20b — under Apache 2.0-licens och är fritt tillgängliga för nedladdning och lokal körning.

Hur bra är gpt-oss jämfört med OpenAIs slutna modeller? gpt-oss-120b matchar eller överpresterar o4-mini på flera benchmarks inklusive kodning, problemlösning och verktygsanvändning. gpt-oss-20b matchar o3-mini trots sin mindre storlek (källa: OpenAI, 2025-08-05).

Vilken hårdvara krävs för att köra gpt-oss? gpt-oss-20b kräver minst 16 GB minne och är optimerad för edge-enheter och konsumenthårdvara. gpt-oss-120b kräver en enda 80 GB GPU — exempelvis en Nvidia H100 (källa: OpenAI, 2025-08-05).

Kan gpt-oss användas kommersiellt? Ja. Modellerna licensieras under Apache 2.0 med ett minimalt användningspolicydokument. Apache 2.0 tillåter fri kommersiell användning, modifiering och distribution (källa: OpenAI, 2025-08-05).

Källa: Introducing gpt oss / OpenAI, publicerad 2025-08-05


Läs även


Projektledarpodden
Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.