ETIK & JURIDIK
Ansvar kan inte delegeras till AI
I socialtjänsten är den juridiska och etiska grundprincipen tydlig: du som handläggare eller socialarbetare är ansvarig för de beslut och dokument du står bakom — oavsett vilket verktyg du använt för att ta fram dem.
Det gäller för AI precis som för alla andra hjälpmedel:
- Du ansvarar för varje utredning du skriver under
- Du ansvarar för varje biståndsbeslut du fattar
- Du ansvarar för varje yttrande du skriver till domstol
- Du ansvarar för varje bedömning du gör om ett barn
- Du ansvarar för den information du ger klienter och anhöriga
Om AI formulerat texten förändrar det inte ansvaret. Det förändrar bara hur texten togs fram.
Vad SoL innebär för AI-användning
Socialtjänstlagen (SoL) slår fast grundläggande principer för socialtjänstens arbete — principer som direkt påverkar hur AI bör och inte bör användas.
Helhetssyn och individuell bedömning. SoL kräver att insatser utformas utifrån den enskildes individuella behov och situation. AI tenderar att producera generella formuleringar. Det är din skyldighet att säkerställa att texten faktiskt speglar den specifika individen.
Självbestämmande och integritet. Den enskilde har rätt att utforma sitt stöd utifrån egna val. AI-genererade genomförandeplaner eller utredningstexter som inte återspeglar den enskildes egna ord och önskemål riskerar att kränka denna princip.
Minsta ingripande. Insatser ska vara proportionerliga. En utredningstext som av AI formas till ett mer ingripande tonfall än det du avsett kan ge ett felaktigt intryck av behovet. Granska alltid tonläget i AI-genererad utredningstext.
JURIDIKFörvaltningsrättsliga krav
Förvaltningslagen ställer krav på hur kommunens handläggning går till — och det påverkar AI-användningen direkt.
Motivering av beslut. Beslut om avslag eller inskränkning av rättigheter ska vara motiverade med skäl. AI kan hjälpa formulera motiveringar — men de måste grunda sig i din faktiska bedömning, inte i vad AI tror att en bra motivering låter som.
Kommunicering. Klienten har rätt att ta del av och yttra sig över material som är av betydelse för deras ärende. AI-genererade utredningsunderlag som klienten aldrig fått ta del av kan vara ett förvaltningsrättsligt problem.
Officialansvar och utredningsskyldighet. Det är handläggarens ansvar att se till att ett ärende är tillräckligt utrett. AI kan strukturera information du har — men den kan inte ersätta insamlandet av nödvändigt underlag.
JURIDIKBarnets bästa och AI — en viktig dimension
I ärenden som rör barn gäller ett förstärkt krav: barnets bästa ska vara avgörande (SoL 1 kap. 2 §, barnkonventionen). Det är inte ett krav på en formulering — det är ett krav på en analys och en bedömning.
AI kan hjälpa formulera texter om barnets situation. Men AI kan inte:
- Göra en riskbedömning för ett specifikt barn
- Avgöra om ett barn far illa
- Bedöma om LVU-förutsättningar föreligger
- Väga barnets bästa mot andra intressen i ett konkret fall
- Höra ett barn och återge barnets perspektiv
En utredningstext som av AI formuleras med ett generellt "barnperspektiv" kan ge ett falskt intryck av att barnets röst faktiskt finns med — om den egentligen inte gör det. Granska alltid om barnets perspektiv faktiskt framgår.
BARNAI kan förstärka ojämlikheter i socialtjänsten
AI tränas på data som speglar historiska mönster — inklusive strukturell ojämlikhet i samhället. Studier från andra länder har visat att AI-system i socialtjänstkontext kan innehålla bias mot ekonomiskt utsatta, minoritetsgrupper och familjer med utländsk bakgrund.
I en svensk socialtjänstkontext innebär det att du behöver vara extra uppmärksam på:
- Om AI:s formuleringar omedvetet antyder ett normativt (t.ex. etniskt eller socioekonomiskt) ideal för "en bra familj"
- Om standardtexter riskerar att missa kulturella sammanhang
- Om AI:s språkval förstärker stigmatiserande formuleringar kring missbruk, psykisk ohälsa eller ekonomisk utsatthet
- Om "neutral" formulering i praktiken är partisk
Professionellt omdöme om rättvisa och värdighet i mötet med den enskilde ersätts inte av AI — det kräver din aktiva granskning.
ETIKVad AI aldrig ska göra i socialt arbete
Det finns tydliga gränser för var AI:s roll slutar. Dessa är inte rekommendationer — de är krav för rättssäker handläggning.
AI ska aldrig:
- Bedöma om ett barn eller en vuxen befinner sig i en risksituation
- Formulera grunden för en LVU- eller LVM-ansökan utan din direkta ingång
- Avgöra rätten till ett bistånd — det kräver handläggarbeslut
- Skriva yttranden till förvaltningsrätten utan att du granskat varje mening mot dossier och lagtext
- Ersätta mötet med klienten och dennes berättelse
- Ge juridiska råd direkt till klienter utan din granskning
AI kan stödja med:
- Formulera det du redan har bedömt och analyserat
- Strukturera information du tillhandahåller
- Ta fram mallar och administrativa underlag
- Förklara regelverk och lagtext i allmänna termer (med källgranskning)
Vanliga misstag
- Att signera AI-text utan att läsa igenom. Det är din signatur — du ansvarar för varje ord och bedömning.
- Att använda AI för riskbedömningar. AI kan låta metodologiskt korrekt och ändå sakna grund i det specifika ärendet.
- Att anta att AI-text är sekretesslaglig. Verktyget avgör sekretessstatusen, inte hur texten är formulerad.
- Att missa klientens röst. AI-genererade texter tenderar att vara handläggarens perspektiv — barnets eller klientens perspektiv kräver aktivt arbete.
- Att lita på AI om aktuell lagstiftning. SoL ändras, Socialstyrelsen ger ut nya föreskrifter — AI:s kunskap är inte uppdaterad automatiskt.
- Att låta AI formulera avslag. Avslagsbeslut är rättsliga akter som kräver korrekt lagstöd och motivering — kontrollera varje referens.