
OpenAI lanserade den 5 augusti 2025 sina första open-weight-modeller sedan GPT-2 år 2019. Modellerna heter gpt-oss-120b och gpt-oss-20b och är tillgängliga under Apache 2.0-licens. För projektledare och organisationer som vill köra AI lokalt, finjustera modeller eller minska beroendet av externa API:er är lanseringen ett konkret alternativ till slutna molntjänster.
OpenAI gpt-oss – huvudpunkter
- OpenAI lanserade den 5 augusti 2025 gpt-oss-120b och gpt-oss-20b — två open-weight-modeller under Apache 2.0-licens. Det är de första open-weight-modellerna OpenAI släppt sedan GPT-2 år 2019 (källa: OpenAI, 2025-08-05).
- gpt-oss-120b matchar eller överpresterar OpenAI o4-mini på tävlingskodning (Codeforces), allmän problemlösning (MMLU och HLE) och verktygsanvändning (TauBench). Modellen kör på en enda 80 GB GPU (källa: OpenAI, 2025-08-05).
- gpt-oss-20b levererar resultat i nivå med OpenAI o3-mini på samma benchmarks och kör på edge-enheter med bara 16 GB minne (källa: OpenAI, 2025-08-05).
- Båda modellerna är mixture-of-experts-arkitektur med 4-bitars kvantisering (MXFP4). De stödjer chain-of-thought med justerbara resonemangsnivåer (låg, medel, hög) och är optimerade för agentiva arbetsflöden med verktygsanvändning (källa: Hugging Face, 2025-08-05).
- Modellerna är tränade med reinforcement learning och tekniker från OpenAIs mest avancerade interna modeller, inklusive o3. Vikterna är fritt tillgängliga för nedladdning på Hugging Face i MXFP4-format (källa: OpenAI, 2025-08-05).
- OpenAI genomförde säkerhetsutvärderingar inklusive adversarial fine-tuning och bekräftade att gpt-oss-120b inte når tröskeln “High capability” inom biologiska, kemiska eller cybersäkerhetsrisker. Tre oberoende expertgrupper granskade metodiken (källa: OpenAI, 2025-08-05).
- OpenAI lanserade ett Red Teaming Challenge med en prispott på 500 000 dollar för att uppmuntra säkerhetsforskare att identifiera nya säkerhetsproblem i modellerna (källa: OpenAI, 2025-08-05).
- Modellerna finns tillgängliga via Azure AI Foundry och kan köras lokalt på Windows via Foundry Local. De stöds av plattformar som vLLM, Ollama, llama.cpp, LM Studio och AWS (källa: Microsoft Azure Blog, 2025-08-05).
Vad detta betyder för projektledare
- Lokal AI-körning utan API-kostnader är nu möjlig med frontmodellprestanda. gpt-oss-20b kör på 16 GB minne — tillräckligt för moderna arbetsstationer. Det öppnar för lokala AI-implementationer i projekt med krav på dataintegritet, låg latens eller begränsad internetåtkomst.
- Apache 2.0-licensen eliminerar licensrisk i kommersiella leveranser. Till skillnad från slutna modeller med restriktiva användningsvillkor är gpt-oss fritt att använda, modifiera och distribuera kommersiellt. Det förenklar juridisk granskning i upphandling och produktutveckling.
- Finjustering möjliggör domänspecifika AI-lösningar. Open-weight-modeller kan finjusteras på organisationens egna data. Projektledare som planerar AI för specifika branscher — juridik, medicin, ingenjörsvetenskap — kan träna modellen på intern data utan att dela den med en extern leverantör.
- Justerbar resonemangsnivå påverkar kostnad och svarstid. gpt-oss stöder tre resonemangsnivåer. Låg nivå ger snabba, energieffektiva svar. Hög nivå ger bättre precision men längre svarstid. Projektledare bör specificera resonemangsnivå per användningsfall i systemkravspecifikationen.
Begrepp i artikeln
- Open-weight-modell: En AI-modell vars vikter (parametrar) är offentligt tillgängliga för nedladdning och lokal körning, till skillnad från slutna modeller som bara är tillgängliga via API.
- Apache 2.0: Öppen licens som tillåter fri användning, modifiering och distribution — inklusive kommersiell användning — utan krav på att derivatverk ska vara öppen källkod.
- Mixture-of-Experts (MoE): Modellarkitektur där bara en delmängd av parametrarna aktiveras per fråga. Minskar beräkningskostnad och energiförbrukning jämfört med täta modeller av samma storlek.
- MXFP4: 4-bitars kvantiseringsformat som minskar modellens minnesbehov. Gör att gpt-oss-120b ryms på en enda 80 GB GPU.
- Chain-of-thought (CoT): Teknik där modellen visar sitt steg-för-steg-resonemang innan den ger sitt slutsvar. Förbättrar precision vid komplexa uppgifter.
Vanliga frågor
Vad är OpenAI gpt-oss? gpt-oss är OpenAIs första open-weight-modeller sedan GPT-2 år 2019. De lanserades den 5 augusti 2025 i två storlekar — gpt-oss-120b och gpt-oss-20b — under Apache 2.0-licens och är fritt tillgängliga för nedladdning och lokal körning.
Hur bra är gpt-oss jämfört med OpenAIs slutna modeller? gpt-oss-120b matchar eller överpresterar o4-mini på flera benchmarks inklusive kodning, problemlösning och verktygsanvändning. gpt-oss-20b matchar o3-mini trots sin mindre storlek (källa: OpenAI, 2025-08-05).
Vilken hårdvara krävs för att köra gpt-oss? gpt-oss-20b kräver minst 16 GB minne och är optimerad för edge-enheter och konsumenthårdvara. gpt-oss-120b kräver en enda 80 GB GPU — exempelvis en Nvidia H100 (källa: OpenAI, 2025-08-05).
Kan gpt-oss användas kommersiellt? Ja. Modellerna licensieras under Apache 2.0 med ett minimalt användningspolicydokument. Apache 2.0 tillåter fri kommersiell användning, modifiering och distribution (källa: OpenAI, 2025-08-05).
Källa: Introducing gpt oss / OpenAI, publicerad 2025-08-05
Läs även
- AI-assistenter och verktyg för projektledare – vilken är bäst?
- Claude utmanar ChatGPT som hjälp till projektledare
- Tabell: AI-modeller för projektledning
- Nvidia Kina AI-chip exportkontroll – vad halvledarkonflikten betyder
