
Meta planerar att låta AI hantera upp till 90 procent av riskbedömningarna av nya produktfunktioner på Facebook, Instagram och WhatsApp, i stället för mänskliga granskare. Det framgår av interna dokument som NPR tagit del av och rapporterade om den 31 maj 2025. För projektledare som arbetar med produktutveckling, riskhantering eller AI-implementation är Metas beslut ett konkret exempel på hur automatiserad riskbedömning förändrar kvalitetssäkringsprocesser i stora teknikorganisationer.
Meta och AI-driven produktriskbedömning – huvudpunkter
- Interna dokument som NPR tagit del av visar att Meta planerar att låta AI hantera upp till 90 procent av riskbedömningarna av nya produktfunktioner, i stället för mänskliga granskare (källa: Engadget/NPR, 2025-05-31).
- Meta överväger att använda AI-granskning även inom områden som ungdomsrisker och “integrity” — det interna begreppet för bedömning av våldsamt innehåll, desinformation och liknande (källa: Engadget/NPR, 2025-05-31).
- Det nya systemet innebär att produktteam fyller i ett frågeformulär om sin produkt och skickar in det för AI-granskning, som normalt ger ett “omedelbart beslut” med identifierade riskområden. Teamet måste sedan åtgärda de krav AI-systemet ställt upp innan produkten kan lanseras.
- Meta har intensifierat användningen av AI i granskninsprocessen under de senaste två månaderna, enligt NPR:s rapport.
- Anonyma nuvarande och tidigare Meta-anställda varnade NPR för att AI kan missa allvarliga risker som ett mänskligt team hade kunnat identifiera.
- En tidigare Meta-chef uppgav till NPR att minskad granskning innebär högre risker och att negativa konsekvenser av produktförändringar blir mindre sannolikt att förhindras innan de orsakar problem.
- I ett uttalande till NPR angav Meta att bolaget fortsatt kommer att använda “mänsklig expertis” för att utvärdera “nya och komplexa frågor” och låta AI hantera “beslut med låg risk”.
- Rapporten publicerades dagarna efter att Metas senaste kvartalsvisa integritetsrapporter visade en liten ökning av mobbning, trakasserier samt våldsamt och grafiskt innehåll, efter bolagets policyförändringar kring innehållsmoderering och faktakontroll tidigare under 2025.
Vad detta betyder för projektledare
- AI som gatekeeper i produktlansering: Metas modell — där produktteam svarar på ett frågeformulär och AI fattar ett omedelbart beslut — är en konkret implementation av automatiserad riskbedömning i en release-process. Projektledare kan studera modellen som ett mönster för hur AI kan integreras i go/no-go-processer, med tydliga krav på vad som ska åtgärdas innan lansering.
- Mänsklig granskning reserveras för komplexa risker: Metas uppdelning — AI för lågriskbeslut, människor för nya och komplexa frågor — är en styrningsprincip som är direkt tillämpbar i projekt. Den kräver dock att organisationen har tydliga definitioner av vad som är “låg risk” respektive “komplex”, vilket i sig är ett kravhanteringsproblem.
- Ökad hastighet mot ökad riskexponering: En av anledningarna till att Meta övergår till AI-granskning är troligen snabbhet. Att “instant decisions” ersätter mänsklig granskning kortar ledtider men ökar risken för att oförutsedda konsekvenser inte identifieras i förväg — en avvägning som projektledare behöver göra explicit i sin riskplan.
- Ansvarskedjan förändras: När AI fattar gransningsbeslut förflyttas det formella ansvaret. Projektledare behöver klargöra vem som är ansvarig om ett AI-godkänt beslut leder till negativa konsekvenser — leverantören av AI-systemet, produktteamet eller verksamheten.
Begrepp i artikeln
- Integrity (Metas interna term): Metas begrepp för bedömning av innehåll och funktioner relaterade till våldsamt innehåll, desinformation, trakasserier och liknande skadliga utfall på plattformen.
- Riskbedömning (product risk assessment): Strukturerad granskning av en ny produkt eller funktion för att identifiera potentiella skador innan lansering — normalt utförd av dedikerade team, nu delvis automatiserad hos Meta.
Vanliga frågor
Hur planerar Meta att använda AI i produktriskbedömningar? Enligt interna dokument som NPR tagit del av planerar Meta att låta AI hantera upp till 90 procent av riskbedömningarna av nya produktfunktioner. Produktteam fyller i ett frågeformulär som AI-systemet granskar och ger ett omedelbart beslut med identifierade riskområden och krav att åtgärda.
Kommer Meta att ta bort mänskliga granskare helt? Nej, inte enligt bolagets eget uttalande. Meta angav till NPR att mänsklig expertis fortsatt ska användas för att utvärdera nya och komplexa frågor, medan AI hanterar beslut med låg risk (källa: Engadget/NPR, 2025-05-31).
Vilka risker har lyfts fram mot Metas AI-granskning? Anonyma nuvarande och tidigare Meta-anställda varnade NPR för att AI kan missa allvarliga risker som ett mänskligt team hade identifierat. En tidigare Meta-chef uppgav att minskad granskning skapar högre risker och att negativa konsekvenser av produktförändringar blir svårare att förhindra i förväg.
Vilka produkter berörs av Metas nya granskningsprocess? Rapporten avser nya funktioner och uppdateringar till Metas plattformar, inklusive Facebook, Instagram och WhatsApp.
Källa: Meta will reportedly soon use AI for most product risk assessments instead of human reviewers / Engadget, Cheyenne MacDonald, publicerad 2025-05-31.
Läs även
- Bortom effektivitet: Etiska överväganden för AI-driven projektledning
- AI-driven riskanalys: Förutse och förebygg projektutmaningar
- Etiska överväganden vid användning av AI i projektledning
- Bortom hypen: Att övervinna organisatoriska hinder för AI-implementering inom projektledning
