
Texas lagstiftande församling behandlar House Bill 149, ett lagförslag som sätter juridiska gränser för hur AI-system får användas av myndigheter och privata aktörer i delstaten. Lagförslaget har godkänts av båda kamrarna och väntar på slutlig behandling i representanthuset. För projektledare i organisationer som verkar i USA eller arbetar med amerikanska uppdragsgivare är utvecklingen relevant som ett tidigt exempel på hur delstatslagstiftning kan påverka AI-implementationer.
Texas House Bill 149 – huvudpunkter
- House Bill 149 kräver att statliga myndigheter informerar medborgare när de interagerar med ett AI-system på en myndighetswebbplats, och förbjuder insamling av biometriska identifierare utan samtycke – inklusive retina, iris, ansiktsigenkänning, fingeravtryck och röstavtryck.
- Privata aktörer förbjuds att utveckla AI-system avsedda att manipulera mänskligt beteende. Myndigheter förbjuds att använda AI för att tilldela medborgare “sociala poäng” eller rangordna dem baserat på persondata.
- Texans delstatsåklagare får ansvaret att verkställa lagen, stödd av ett online-klagomålssystem. Överträdelser kan leda till civilrättsliga böter på upp till 100 000 dollar (källa: The Texas Tribune, 2025-05-23).
- Lagförslaget skapar Texas Artificial Intelligence Council, ett tio-personigt rådgivande organ inom Department of Information Resources, med uppgift att övervaka AI-användning i statsförvaltningen, flagga skadliga metoder och rekommendera lagstiftningsuppdateringar.
- För AI-industrin skapar lagförslaget en regulatorisk “sandbox” – en kontrollerad miljö där utvecklare kan testa AI-system utan att omfattas av vissa delstatsregler och utan att riskera sanktioner.
- Om lagförslaget godkänns medför det en kostnad på 25 miljoner dollar och tillsätter 20 nya heltidstjänster, varav 12 i delstatsåklagarens kansli (källa: The Texas Tribune, 2025-05-23).
- Ett utkast till federal budgetförlikning för 2025 innehåller ett förslag om ett tioårigt moratorium på ny delstatslagstiftning om AI, vilket skulle kunna frysa HB 149 innan lagen träder i kraft. HB 149 skulle i så fall gälla från den 1 januari.
- Lagförslagets ursprungliga version, HB 1709 – även känd som Texas Responsible AI Governance Act – modellerades efter EU:s AI Act men drogs tillbaka efter kritik från teknikindustrin som kallade den alltför bred och betungande.
Vad detta betyder för projektledare
- Krav på AI-transparens i offentliga projekt: HB 149 kräver att statliga myndigheter informerar medborgare om AI-interaktioner. Projektledare som levererar system till offentliga beställare i Texas behöver säkerställa att transparenskrav är uppfyllda i kravspecifikationen och leveransen.
- Biometrisk datainsamling kräver samtycke: Projekt som involverar ansiktsigenkänning, röstanalys eller fingeravtryck i Texas-baserade system måste inkludera samtyckesflöden i designen. Detta påverkar kravhantering, testning och juridisk granskning.
- Regulatory sandbox som möjlighet: För organisationer som testar nya AI-lösningar i Texas erbjuder sandboxen en kontrollerad miljö för pilotprojekt utan full regulatorisk exponering. Det är relevant för projektledare som planerar AI-piloter i tidiga faser.
- Federal osäkerhet är en projektriskvariabel: Det föreslagna federala moratoriet på delstatslagstiftning om AI innebär att HB 149 kan upphävas eller frysas efter antagande. Projektledare bör inkludera regulatorisk osäkerhet som en identifierad risk i projekt som är beroende av HB 149:s ramverk.
Begrepp i artikeln
- House Bill 149 (HB 149): Texaslagstiftningens lagförslag om AI-reglering, framlagt av representanten Giovanni Capriglione, R-Southlake.
- Regulatory sandbox: En kontrollerad juridisk miljö där företag kan testa produkter eller tjänster med undantag från vissa regelverk, utan risk för sanktioner.
- Private right of action: Medborgarens rätt att stämma ett företag direkt för regelöverträdelser. HB 149 utesluter denna rätt – klagomål hanteras i stället av delstatsåklagaren.
- Texas Artificial Intelligence Council: Tio-personigt rådgivande organ inom Department of Information Resources, skapat av HB 149 för att övervaka AI-användning i statsförvaltningen.
Vanliga frågor
Vad är Texas House Bill 149? HB 149 är ett lagförslag i Texas som reglerar hur AI-system får användas av statliga myndigheter och privata aktörer. Det kräver transparens vid AI-interaktioner på myndighetswebbplatser, förbjuder biometrisk datainsamling utan samtycke och sätter gränser för manipulativa AI-system. Lagförslaget har godkänts av båda kamrarna per maj 2025.
Vad händer om man bryter mot HB 149? Överträdelser kan leda till civilrättsliga böter på upp till 100 000 dollar per incident. Enforcement sköts av Texans delstatsåklagare via ett online-klagomålssystem. Medborgare kan inte stämma företag direkt – den rätten är utesluten i lagförslaget (källa: The Texas Tribune, 2025-05-23).
Kan den federala regeringen stoppa Texas AI-lag? Ja, potentiellt. Ett utkast till federal budgetförlikning för 2025 innehåller ett förslag om ett tioårigt moratorium på ny delstatslagstiftning om AI. Om det antas kan det frysa HB 149 och liknande lagar i andra delstater innan de träder i kraft.
Vad är en regulatory sandbox i AI-sammanhang? En regulatory sandbox är en kontrollerad juridisk miljö där AI-utvecklare kan testa system utan att fullt ut omfattas av gällande regelverk och utan risk för sanktioner. HB 149 introducerar en sådan sandbox för AI-industrin i Texas.
Hur skiljer sig HB 149 från EU:s AI Act? HB 149 är smalare och mer specifik än EU:s AI Act. Det ursprungliga texanska förslaget, HB 1709, modellerades direkt efter EU:s AI Act med fokus på hälso-, arbets- och finanssektorn, men drogs tillbaka efter branschkritik. HB 149 fokuserar i stället på konkreta förbud och transparenskrav snarare än en bred riskklassificering av AI-system.
Källa: Texas lawmakers push to regulate AI in government and the tech industry / The Texas Tribune, Alejandra Martinez, publicerad 2025-05-23.
Läs även
- Bortom effektivitet: Etiska överväganden för AI-driven projektledning
- Etiska överväganden vid användning av AI i projektledning
- 7 saker projektledare behöver veta om Dataintegritet och säkerhet i Microsoft Copilot för Microsoft 365
- Införande av datalagringsplats i Europa
- Google Veo 3 och deepfake-risker – vad AI-genererade videor betyder för informationsintegritet
