RÄTTSSÄKERHET
Förvaltningslagen ändras inte av att du använder AI
Förvaltningslagens krav på saklighet, opartiskhet och legalitet gäller handläggaren — och indirekt alla verktyg handläggaren använder. Om du använder AI i beredningen av ett ärende är du fortfarande ansvarig för att det slutliga beslutet uppfyller dessa krav.
Det innebär ett extra ansvar att kritiskt granska AI-genererat innehåll: inte bara för faktafel, utan för systematiska snedvridningar, otillräckliga nyansering eller formuleringar som kan uppfattas som partiska.
Risken för systematisk snedvridning
AI-modeller är tränade på data som speglar mänskliga fördomar och historiska mönster. Det kan leda till systematiska snedvridningar som inte är uppenbara men som kan påverka kvaliteten på beslutsunderlag.
Konkret: ett AI-system kan formulera bedömningar på ett sätt som systematiskt gynnar eller missgynnar en viss grupp, utan att det är synligt i det enskilda fallet. I offentlig myndighetsutövning är det ett allvarligt rättssäkerhetsproblem.
Praktiska konsekvenser:
- Använd aldrig AI-genererade bedömningar rakt av i ärenden som rör enskilda
- Var extra uppmärksam på formuleringar som rör personegenskaper eller grupptillhörighet
- Granska om AI-stödet ger konsistenta förslag oavsett vem ärendet gäller
Dokumentera din AI-användning
En öppen fråga i offentlig sektor: i vilken utsträckning ska AI-användning i beredningen av ett ärende dokumenteras?
I avsaknad av tydlig lagstiftning är en rimlig princip: dokumentera AI-användning på samma sätt du dokumenterar andra hjälpmedel. Om ett AI-system väsentligt bidragit till ett beslutsunderlag bör det framgå av ärendedokumentationen.
Var tidigt ute med att ta fram en intern policy. Det är bättre att ha tydliga riktlinjer etablerade innan frågorna uppstår — inte efteråt.
TRANSPARENS