VÄLJ VERKTYG
I socialtjänsten gäller andra regler
I de flesta branscher är frågan om vilket AI-verktyg som är bäst en fråga om funktion och pris. I socialtjänsten är det primärt en fråga om vad som är lagligt och vad som skyddar klienten.
Grundregeln är enkel: använd bara AI-verktyg som din arbetsgivare och IT-avdelning explicit godkänt för yrkesbruk. Det är inte en rekommendation — det är ett krav.
Klientuppgifter i socialtjänsten skyddas av 26 kap. offentlighets- och sekretesslagen (OSL) och GDPR. Socialtjänstsekretessen är i många fall starkare än sekretessen inom vården. Att mata in klientuppgifter i ett icke-godkänt verktyg kan vara ett sekretessbrott — oavsett avsikten.
Microsoft Copilot — om kommunen använder Microsoft 365
De flesta kommuner i Sverige använder Microsoft 365 som standardmiljö. Om Copilot är aktiverat inom er Microsoft-licens är det ofta det juridiskt tryggaste alternativet — eftersom data stannar inom din organisations Microsoft-miljö och inte skickas till externa servrar för modellträning.
Styrkor i socialtjänstkontext:
- Integrerat i Word, Outlook och Teams — verktyg du redan använder
- Data stannar inom organisationens Microsoft-avtal
- IT-avdelningen har vanligtvis gjort säkerhetsbedömningen
- Kan sammanfatta möten och mejltrådar utan extern dataöverföring
Begränsningar:
- Kräver aktiv licens — fråga IT om Copilot är aktiverat för din roll
- Även inom Microsoft 365 gäller sekretessen — mata inte in klientdata i chattgränssnitt som inte är godkända för ändamålet
- Konfigurations- och behörighetsinställningar varierar mellan kommuner
ChatGPT och Claude — konsumentversioner
Gratisversioner av ChatGPT (OpenAI) och Claude (Anthropic) är tillgängliga för alla och används redan flitigt av många. De är kraftfulla — men de är inte godkända för hantering av klientuppgifter i kommunal verksamhet.
I konsumentversioner kan konversationer i vissa fall användas för att förbättra modellen. Det innebär att information du matar in potentiellt kan lagras och bearbetas av leverantören. Det är inte förenligt med OSL och GDPR för klientärenden.
Däremot kan de användas för uppgifter utan klientdata:
- Formulera allmänna informationstexter och mallar
- Förstå lagtext och regelverk (med källgranskning)
- Skriva interna rutinbeskrivningar utan klientuppgifter
- Kompetensutveckling och lärande
Enterprise-versioner med dataskyddsavtal
Både OpenAI (ChatGPT Enterprise) och Anthropic erbjuder enterprise-lösningar med starkare dataskyddsavtal och garanti om att data inte används för modellträning. Dessa kräver ett formellt avtal och IT-godkännande.
Om din förvaltning har tecknat ett sådant avtal kan dessa verktyg vara möjliga att använda även för mer känsliga arbetsuppgifter — men det kräver att:
- IT-avdelningen bekräftat att avtalet uppfyller GDPR och OSL
- Dataskyddsombudet (DSO) godkänt användningen
- Enheten har tydliga riktlinjer för vilken information som ändå inte matas in
Verksamhetsspecifika AI-system
Allt fler journalsystem och ärendehanteringssystem för socialtjänst börjar integrera AI-stöd direkt i verktyget — till exempel Lifecare, Treserva och Pulsen. Dessa är särskilt anpassade för socialtjänstens krav och hanterar sekretessen inom systemets befintliga juridiska ramverk.
Om din organisation har tillgång till AI-stöd inbyggt i journalsystemet är det vanligtvis det säkraste alternativet för ärenderelev dokumentation — systemet är redan godkänt för klientdata.
- Fråga din systemförvaltare om AI-stöd är aktiverat
- Kontrollera vilka specifika funktioner som är godkända
- Läs leverantörens dokumentation om hur AI-funktionen hanterar data
Tre frågor att ställa om ett verktyg
- Är verktyget godkänt av min IT-avdelning och DSO? Om inte — använd det inte för arbetsrelaterade uppgifter alls, eller enbart för uppgifter helt utan klientanknytning.
- Lämnar data organisationen? Om ja — mata inte in klientuppgifter. Om nej (slutet system eller avtal) — kontrollera att ändamålet täcks.
- Används data för modellträning? Om ja eller osäkert — behandla verktyget som om det är öppet. Mata aldrig in klientuppgifter.