ETIK & JURIDIK

ANSVAR // PATIENTLAGEN // GRÄNSER

PRINCIP

Ansvar kan inte delegeras till AI

I vården är den juridiska och etiska grundprincipen tydlig: du som legitimerad yrkesutövare är ansvarig för de beslut och dokument du står bakom — oavsett vilket verktyg du använt för att ta fram dem.

Det gäller för AI precis som för alla andra hjälpmedel:

  • Du ansvarar för varje journalanteckning du signerar
  • Du ansvarar för varje intyg du utfärdar
  • Du ansvarar för varje behandlingsbeslut du fattar
  • Du ansvarar för den information du ger patienter och anhöriga

Om AI formulerat texten förändrar det inte ansvaret. Det förändrar bara hur texten togs fram.

AI KAN HJÄLPA DIG FORMULERA
AI KAN ALDRIG TA DITT ANSVAR

PATIENTLAGEN

Vad patientlagen innebär för AI-användning

Patientlagen slår fast patientens rätt till information, delaktighet och självbestämmande. Det påverkar hur AI bör och inte bör användas:

Informationsplikten. Patienten har rätt till information om sitt hälsotillstånd och de behandlingsalternativ som finns — på ett sätt hen förstår. AI kan hjälpa dig formulera den informationen mer begripligt. Men du ansvarar för att informationen är korrekt och anpassad.

Samtycke. Vård ges normalt bara med patientens samtycke. AI-genererade råd, bedömningar eller information som leder till ett vårdbeslut måste fortfarande förankras i ett korrekt och informerat samtycke.

Rätt till sin journal. Patienten har rätt att ta del av sin journal. Om du använt AI för att formulera delar av journaltexten förändrar det inte patientens rätt till insynen — eller din skyldighet att journalen återspeglar det faktiska förloppet korrekt.

PATIENTENS RÄTTIGHETER GÄLLER
OAVSETT HUR TEXTEN PRODUCERADES

JURIDIK

KLINISKA GRÄNSER

Vad AI aldrig ska göra i ett kliniskt sammanhang

Det finns tydliga gränser för var AI:s roll slutar i vården. Dessa är inte bara rekommendationer — de är ett krav för patientsäker vård.

AI ska aldrig:

  • Ställa diagnoser — det kräver klinisk bedömning av legitimerad personal
  • Rekommendera behandling för en specifik patient
  • Ge medicinska råd direkt till patienter utan din granskning
  • Avgöra om ett symtom är allvarligt eller inte
  • Ersätta en klinisk bedömning i en akut situation
  • Fatta eller dokumentera vårdbeslut utan din inblandning

AI kan stödja dig med:

  • Formulera det du redan har bedömt
  • Strukturera information du tillhandahåller
  • Ta fram mallar och administrativa underlag
  • Ge allmän bakgrundsinformation som du sedan värderar

KLINISK BEDÖMNING → ALLTID DU
FORMULERING AV BEDÖMNING → AI KAN STÖDJA

GRÄNS

BIAS OCH RÄTTVISA

AI kan förstärka ojämlikheter i vården

En viktig etisk dimension som ofta glöms bort: AI tränas på data som speglar historiska mönster — inklusive strukturell ojämlikhet i vården. Studier har visat att AI-system kan underprestera för vissa patientgrupper: kvinnor, äldre, patienter med utländsk bakgrund och patienter med lägre hälsolitteracitet.

Det innebär att du behöver vara extra uppmärksam på:

  • Om AI:s förslag verkar ta en patients bakgrund i beaktande på ett problematiskt sätt
  • Om standardformuleringar riskerar att missa kulturella eller språkliga behov
  • Om lättläst information faktiskt är anpassad till den specifika patientens situation

Professionellt omdöme om rättvisa i vården ersätts inte av AI — det kräver din aktiva granskning.

AI SPEGLAR HISTORISKA MÖNSTER
GRANSKA MED ETT JÄMLIKHETS-PERSPEKTIV

ETIK

TRANSPARENS

Ska patienten veta att AI använts?

Det finns ingen lagstiftning som i dagsläget kräver att du informerar en patient om att AI använts för att formulera en journalanteckning eller ett brev. Men det finns goda etiska skäl att vara transparent.

Riktlinjen: om AI-användningen på ett meningsfullt sätt påverkat innehållet i det patienten tar del av — och patienten rimligen skulle vilja veta det — bör du överväga att informera.

Exempelfall där transparens är extra viktig:

  • Patientinformation som är direkt AI-genererad och inte genomarbetad av dig
  • Svar på patientfrågor som bygger på AI-förslag
  • Situationer där patienten frågar hur information tagits fram

TRANSPARENS BYGGER FÖRTROENDE
OCH ÄR RÄTT SAKER ATT GÖRA

TILLIT

RISKER

Vanliga misstag

  1. Att signera AI-text utan att läsa igenom. Det är din signatur — du ansvarar för varje ord.
  2. Att använda AI för kliniska bedömningar. AI kan låta medicinsk korrekt och ändå ha fel om din specifika patient.
  3. Att anta att AI-text är sekretesslaglig. Verktyget avgör sekretessstatusen, inte formuleringen.
  4. Att inte granska för bias. Standardformuleringar kan missa individens faktiska behov.
  5. Att lita på AI om aktuella riktlinjer. Riktlinjer uppdateras — AI:s kunskap gör det inte automatiskt.

PROFESSIONELLT OMDÖME ÄR INTE VALBART
DET ÄR EN DEL AV DITT YRKE

KRITISKT

NÄSTA STEG

POLICY // RIKTLINJER FÖR DIN ENHET