ETIK & JURIDIK

GDPR // DISKRIMINERING // ANSVAR // TRANSPARENS

PRINCIP

Ansvar kan inte delegeras till AI

HR-beslut om anställning, befordran, löneutveckling och avslut är arbetsgivarens ansvar — oavsett vilket stöd som använts i beslutsprocessen. Det gäller för AI precis som för alla andra hjälpmedel.

Det innebär att om ett AI-system har bidragit till ett beslut som är diskriminerande eller felaktigt, är arbetsgivaren ändå ansvarig. "AI:n sa det" är inte ett juridiskt försvar.

Det ändrar inte att AI kan vara ett värdefullt stöd — men det sätter ramen för hur det ska användas.

ARBETSGIVAREN ANSVARAR FÖR ALLA HR-BESLUT
OAVSETT VILKET STÖD SOM ANVÄNTS

GDPR

GDPR och personuppgifter i HR

HR är en av de funktioner som behandlar mest känsliga personuppgifter i en organisation. GDPR ställer krav på hur dessa uppgifter får behandlas — och AI-verktyg är ett behandlingssystem precis som ett HR-system.

Känsliga kategorier som kräver extra skydd:

  • Hälsoinformation och sjukfrånvaro
  • Facklig tillhörighet
  • Etniskt ursprung
  • Religiös övertygelse
  • Sexuell läggning och könsidentitet

Dessa uppgifter kräver explicit rättslig grund för behandling — och ett AI-verktyg som inte har ett personuppgiftsbiträdesavtal med din organisation uppfyller i regel inte det kravet.

Grundregeln: känsliga personuppgifter behandlas bara i system som IT-avdelningen och dataskyddsombudet godkänt. Aldrig i verktyg du använder privat eller utan organisationens godkännande.

KÄNSLIGA KATEGORIER → BARA I GODKÄNDA SYSTEM
VID OSÄKERHET → FRÅGA DATASKYDDSOMBUDET

KRITISKT

DISKRIMINERINGSLAGEN

AI och diskrimineringsrisken i HR

Diskrimineringslagen förbjuder diskriminering i arbetslivet på sju grunder: kön, könsöverskridande identitet eller uttryck, etnisk tillhörighet, religion eller annan trosuppfattning, funktionsnedsättning, sexuell läggning och ålder.

AI kan reproducera och förstärka diskriminering på flera sätt:

  • Direkt diskriminering via träningsdata. AI tränad på historiska anställningsbeslut reproducerar de biaser som förekommit i dessa beslut.
  • Indirekt diskriminering via proxy-variabler. AI kan korrelera neutrala variabler (examen från viss skola, viss bostadsadress) med skyddad grund och därigenom diskriminera indirekt.
  • Språklig bias i platsannonser. Genuskodade formuleringar avskräcker systematiskt specifika grupper från att söka.

Det innebär att du aktivt behöver granska AI-genererat material med diskrimineringsperspektiv — det räcker inte att texten "verkar neutral".

NEUTRALT UTSEENDE ≠ NEUTRALT UTFALL
GRANSKA ALLTID MED DISKRIMINERINGSPERSPEKTIV

JURIDIK

EU AI ACT

EU AI Act och HR — vad du behöver veta

EU AI Act — EU:s förordning om artificiell intelligens — klassificerar AI-system som används i rekrytering och HR som högrisk. Det innebär skärpta krav på system som används för att bedöma kandidater och anställda.

Praktiska konsekvenser för HR:

  • AI-system för kandidaturval klassas som högrisk och måste genomgå riskbedömning och dokumentation. Det gäller om systemet "väsentligt påverkar" ett beslut.
  • Transparenskrav. Kandidater och anställda ska ha rätt att veta att AI använts i ett beslut som påverkar dem.
  • Rätt att ifrågasätta. Automatiserade beslut av betydelse ska kunna granskas och överklagas av en människa.

AI Act börjar tillämpas fullt ut 2026. Om din organisation använder AI-verktyg i rekrytering eller HR-beslut — stäm av med juridik eller dataskyddsombud om ni uppfyller kraven.

AI I REKRYTERING = HÖGRISK ENLIGT EU AI ACT
STÄM AV MED JURIDIK OM ERA VERKTYG UPPFYLLER KRAVEN

AKTUELLT

TRANSPARENS

Ska medarbetare och kandidater veta att AI använts?

EU AI Act och god praxis pekar i samma riktning: transparens om AI-användning i HR är rätt väg.

Konkreta situationer där transparens är extra viktig:

  • Rekryteringsprocesser där AI bidragit till urval eller bedömning
  • Prestandabedömningar med AI-stöd
  • Kommunikation som genererats av AI och skickas i din eller organisationens namn

Vad transparens i praktiken innebär:

  • Nämna i jobbannons eller kallelsebrev att AI-verktyg används i processen
  • Ha en policy för AI-användning i HR som medarbetare kan ta del av
  • Säkerställa att en människa alltid fattar det slutliga beslutet

TRANSPARENS BYGGER FÖRTROENDE
OCH MINSKAR JURIDISKA RISKER

GOD PRAXIS

VANLIGA MISSTAG

Juridiska fallgropar att undvika

  1. Låta AI fatta eller starkt styra urvalsbeslut. Arbetsgivaren är alltid ansvarig. AI-rankning av kandidater utan mänsklig granskning exponerar organisationen för diskrimineringskrav.
  2. Använda icke-godkänt verktyg för personuppgifter. Ingen GDPR-grund, inget personuppgiftsbiträdesavtal — ett dataskyddsbrott oavsett intention.
  3. Inte granska AI-text för diskriminering. "Det var AI:n som skrev" är inte ett försvar mot ett diskrimineringsklagomål om texten är exkluderande.
  4. Sakna dokumentation om AI-användning. EU AI Act och god praxis kräver att ni kan visa vad som påverkat ett beslut. Spara information om när och hur AI använts i processer med konsekvenser för individer.

DOKUMENTERA AI-ANVÄNDNING I BESLUT SOM PÅVERKAR INDIVIDER

KRITISKT

NÄSTA STEG

POLICY // AI-POLICY FÖR HR-FUNKTIONEN