ETIK & JURIDIK

ANSVAR // SoL // FÖRVALTNINGSLAGEN

PRINCIP

Ansvar kan inte delegeras till AI

I socialtjänsten är den juridiska och etiska grundprincipen tydlig: du som handläggare eller socialarbetare är ansvarig för de beslut och dokument du står bakom — oavsett vilket verktyg du använt för att ta fram dem.

Det gäller för AI precis som för alla andra hjälpmedel:

  • Du ansvarar för varje utredning du skriver under
  • Du ansvarar för varje biståndsbeslut du fattar
  • Du ansvarar för varje yttrande du skriver till domstol
  • Du ansvarar för varje bedömning du gör om ett barn
  • Du ansvarar för den information du ger klienter och anhöriga

Om AI formulerat texten förändrar det inte ansvaret. Det förändrar bara hur texten togs fram.

AI KAN HJÄLPA DIG FORMULERA
AI KAN ALDRIG TA DITT ANSVAR

SOCIALTJÄNSTLAGEN

Vad SoL innebär för AI-användning

Socialtjänstlagen (SoL) slår fast grundläggande principer för socialtjänstens arbete — principer som direkt påverkar hur AI bör och inte bör användas.

Helhetssyn och individuell bedömning. SoL kräver att insatser utformas utifrån den enskildes individuella behov och situation. AI tenderar att producera generella formuleringar. Det är din skyldighet att säkerställa att texten faktiskt speglar den specifika individen.

Självbestämmande och integritet. Den enskilde har rätt att utforma sitt stöd utifrån egna val. AI-genererade genomförandeplaner eller utredningstexter som inte återspeglar den enskildes egna ord och önskemål riskerar att kränka denna princip.

Minsta ingripande. Insatser ska vara proportionerliga. En utredningstext som av AI formas till ett mer ingripande tonfall än det du avsett kan ge ett felaktigt intryck av behovet. Granska alltid tonläget i AI-genererad utredningstext.

SoL KRÄVER INDIVIDUELL BEDÖMNING
GENERELLA AI-TEXTER UPPFYLLER INTE DET KRAVET AUTOMATISKT

JURIDIK

FÖRVALTNINGSLAGEN

Förvaltningsrättsliga krav

Förvaltningslagen ställer krav på hur kommunens handläggning går till — och det påverkar AI-användningen direkt.

Motivering av beslut. Beslut om avslag eller inskränkning av rättigheter ska vara motiverade med skäl. AI kan hjälpa formulera motiveringar — men de måste grunda sig i din faktiska bedömning, inte i vad AI tror att en bra motivering låter som.

Kommunicering. Klienten har rätt att ta del av och yttra sig över material som är av betydelse för deras ärende. AI-genererade utredningsunderlag som klienten aldrig fått ta del av kan vara ett förvaltningsrättsligt problem.

Officialansvar och utredningsskyldighet. Det är handläggarens ansvar att se till att ett ärende är tillräckligt utrett. AI kan strukturera information du har — men den kan inte ersätta insamlandet av nödvändigt underlag.

FÖRVALTNINGSLAGEN STÄLLER KRAV
AI PÅVERKAR INTE DESSA KRAV — DE GÄLLER FORTFARANDE

JURIDIK

BARNPERSPEKTIV

Barnets bästa och AI — en viktig dimension

I ärenden som rör barn gäller ett förstärkt krav: barnets bästa ska vara avgörande (SoL 1 kap. 2 §, barnkonventionen). Det är inte ett krav på en formulering — det är ett krav på en analys och en bedömning.

AI kan hjälpa formulera texter om barnets situation. Men AI kan inte:

  • Göra en riskbedömning för ett specifikt barn
  • Avgöra om ett barn far illa
  • Bedöma om LVU-förutsättningar föreligger
  • Väga barnets bästa mot andra intressen i ett konkret fall
  • Höra ett barn och återge barnets perspektiv

En utredningstext som av AI formuleras med ett generellt "barnperspektiv" kan ge ett falskt intryck av att barnets röst faktiskt finns med — om den egentligen inte gör det. Granska alltid om barnets perspektiv faktiskt framgår.

BARNETS BÄSTA KRÄVER DIN BEDÖMNING
AI KAN INTE GÖRA DEN BEDÖMNINGEN

BARN

BIAS OCH RÄTTVISA

AI kan förstärka ojämlikheter i socialtjänsten

AI tränas på data som speglar historiska mönster — inklusive strukturell ojämlikhet i samhället. Studier från andra länder har visat att AI-system i socialtjänstkontext kan innehålla bias mot ekonomiskt utsatta, minoritetsgrupper och familjer med utländsk bakgrund.

I en svensk socialtjänstkontext innebär det att du behöver vara extra uppmärksam på:

  • Om AI:s formuleringar omedvetet antyder ett normativt (t.ex. etniskt eller socioekonomiskt) ideal för "en bra familj"
  • Om standardtexter riskerar att missa kulturella sammanhang
  • Om AI:s språkval förstärker stigmatiserande formuleringar kring missbruk, psykisk ohälsa eller ekonomisk utsatthet
  • Om "neutral" formulering i praktiken är partisk

Professionellt omdöme om rättvisa och värdighet i mötet med den enskilde ersätts inte av AI — det kräver din aktiva granskning.

AI SPEGLAR HISTORISKA MÖNSTER
GRANSKA MED ETT RÄTTIGHETSPERSPEKTIV

ETIK

GRÄNSER

Vad AI aldrig ska göra i socialt arbete

Det finns tydliga gränser för var AI:s roll slutar. Dessa är inte rekommendationer — de är krav för rättssäker handläggning.

AI ska aldrig:

  • Bedöma om ett barn eller en vuxen befinner sig i en risksituation
  • Formulera grunden för en LVU- eller LVM-ansökan utan din direkta ingång
  • Avgöra rätten till ett bistånd — det kräver handläggarbeslut
  • Skriva yttranden till förvaltningsrätten utan att du granskat varje mening mot dossier och lagtext
  • Ersätta mötet med klienten och dennes berättelse
  • Ge juridiska råd direkt till klienter utan din granskning

AI kan stödja med:

  • Formulera det du redan har bedömt och analyserat
  • Strukturera information du tillhandahåller
  • Ta fram mallar och administrativa underlag
  • Förklara regelverk och lagtext i allmänna termer (med källgranskning)

PROFESSIONELL BEDÖMNING → ALLTID DU
FORMULERING AV BEDÖMNING → AI KAN STÖDJA

GRÄNS

RISKER

Vanliga misstag

  1. Att signera AI-text utan att läsa igenom. Det är din signatur — du ansvarar för varje ord och bedömning.
  2. Att använda AI för riskbedömningar. AI kan låta metodologiskt korrekt och ändå sakna grund i det specifika ärendet.
  3. Att anta att AI-text är sekretesslaglig. Verktyget avgör sekretessstatusen, inte hur texten är formulerad.
  4. Att missa klientens röst. AI-genererade texter tenderar att vara handläggarens perspektiv — barnets eller klientens perspektiv kräver aktivt arbete.
  5. Att lita på AI om aktuell lagstiftning. SoL ändras, Socialstyrelsen ger ut nya föreskrifter — AI:s kunskap är inte uppdaterad automatiskt.
  6. Att låta AI formulera avslag. Avslagsbeslut är rättsliga akter som kräver korrekt lagstöd och motivering — kontrollera varje referens.

PROFESSIONELLT OMDÖME ÄR INTE VALBART
DET ÄR EN DEL AV DITT UPPDRAG

KRITISKT

NÄSTA STEG

POLICY // RIKTLINJER FÖR DIN ENHET