ANSVAR & STYRNING

RISK // ROLLER // BESLUT // KONTROLL

PRINCIP

Ansvar följer med befogenheten att besluta

När en medarbetare skickar ut ett AI-genererat mejl, publicerar en AI-assisterad rapport eller fattar ett beslut med stöd av ett AI-system — vem ansvarar om det är fel?

Svaret är tydligt: organisationen, och i förlängningen chefen. "AI:n genererade det" är inte ett juridiskt eller etiskt försvar. Ansvaret försvinner inte för att ett verktyg bidragit.

Det förändrar inte att AI kan vara värdeskapande — men det sätter ramen. Chefen som inför AI i verksamheten tar ansvar för att det används på ett sätt som organisationen kan stå för.

AI ÄR ETT VERKTYG
ANSVARET STANNAR HOS MÄNNISKAN

GODKÄNDA VERKTYG

Det första beslutet: vilka verktyg är tillåtna?

Det viktigaste styrningsbeslutet en chef och organisation behöver fatta är vilka AI-verktyg som är godkända — och för vad. Utan det beslutet sker AI-användningen oreglerat och med oförutsägbar risk.

Tre nivåer att ta ställning till:

  • Generella AI-assistenter (ChatGPT, Claude, Gemini). Godkänns vanligen för textarbete utan konfidentiell information. Kräver tydliga riktlinjer om vad som inte får matas in.
  • Organisationsintegrerade verktyg (Microsoft Copilot, Google Workspace AI). Kräver avtal och konfiguration — men ger bättre datakontroll. IT och juridik behöver godkänna.
  • Specialiserade AI-system för specifika processer (rekrytering, ekonomi, kundservice). Kräver individuell bedömning, personuppgiftsbiträdesavtal och i vissa fall konsekvensbedömning enligt GDPR och EU AI Act.

INGA GODKÄNDA VERKTYG = OREGLERAD AI-ANVÄNDNING
FATTA BESLUTET — KOMMUNICERA DET TYDLIGT

BESLUT

RISKKLASSIFICERING

Alla AI-användningar är inte lika riskfyllda

En enkel riskmodell för att klassificera AI-användningar i din verksamhet:

  • Låg risk. Intern kommunikation, utkast som granskas av en människa, sammanfattningar av icke-konfidentiellt material, agendor och mötesanteckningar. Kan tillåtas brett med enkla riktlinjer.
  • Medel risk. Extern kommunikation, kundmöten med AI-stöd, analys av affärskänslig data. Kräver tydligare process för granskning och godkännande.
  • Hög risk. Beslut om individer (anställning, befordran, kredit, vård), behandling av känsliga personkategorier, autonom kommunikation utåt. Kräver mänsklig granskning i varje enskilt fall och dokumentation.

EU AI Act klassificerar också vissa system som högrisk — se avsnittet om etik och juridik för mer om det.

LÅG RISK: ENKLA RIKTLINJER
HÖG RISK: MÄNSKLIG GRANSKNING + DOKUMENTATION

RISKMODELL

ROLLFÖRDELNING

Vem ansvarar för vad

Chef / verksamhetsansvarig:

  • Beslutar vilka AI-verktyg som får användas i verksamheten
  • Kommunicerar riktlinjer och säkerställer att de följs
  • Sätter krav på granskning och kvalitetskontroll
  • Ansvarar för att AI-relaterade risker hanteras i verksamheten

IT-avdelningen:

  • Godkänner verktyg från säkerhets- och dataskyddsperspektiv
  • Säkerställer att avtal och tekniska skyddsåtgärder finns på plats
  • Hanterar incidenter och dataskyddsbrott

Juridik / dataskyddsombud:

  • Bedömer GDPR-konsekvenser av AI-system som hanterar personuppgifter
  • Granskar EU AI Act-compliance för system som klassificeras som högrisk
  • Är kontaktperson vid tillsynsmyndighetens frågor

Medarbetare:

  • Använder bara godkända verktyg
  • Granskar och tar ansvar för allt AI-genererat material
  • Rapporterar incidenter och oklarheter uppåt

TYDLIGA ROLLER — TYDLIGT ANSVAR

ORGANISATION

VANLIGA MISSTAG

Styrningsmisstag att undvika

  1. Ingen policy alls. Medarbetare använder vad de hittar. Ingen vet vad som är okej. Konfidentiell data hamnar i okontrollerade system.
  2. Policy utan förankring. En policy som skapas på ledningsnivå och kommuniceras i ett mejl — men aldrig förklaras eller diskuteras — följs inte.
  3. Köp en licens, hoppas på det bästa. Organisation köper Copilot eller liknande. Ingen utbildning, inga riktlinjer, ingen uppföljning. Verktyget används sällan eller fel.
  4. Delegera ansvaret för tidigt. AI-ansvar läggs på en entusiast i teamet utan formellt mandat. Hen kan inte fatta styrningsbeslut — det kräver chefen.
  5. Glömma att uppdatera. AI-lagstiftning och verktyg förändras snabbt. En policy från 2023 kan vara utdaterad 2025. Bygg in en rutin för revidering minst en gång per år.

STYRNING ÄR INTE ETT ENGÅNGSBESLUT — DET ÄR EN PROCESS

KRITISKT

NÄSTA STEG

EU AI ACT // JURIDIKEN SOM CHEFEN BEHÖVER KÄNNA TILL