ETIK & JURIDIK
Det viktigaste: AI hittar på
Det enskilt viktigaste att komma ihåg som kommunikatör som använder AI: modellen kan formulera felaktig information med exakt samma säkerhet och flyt som korrekt information. Det kallas hallucination och är ett strukturellt drag — inte ett undantagsfall.
För intern kommunikation är konsekvenserna allvarliga. Fel fakta om en organisationsförändring, en felaktig siffra i ett medarbetarbrev eller ett missvisande påstående om ett beslut urholkar förtroendet snabbt — och det är svårt att reparera.
Grundregel: ge alltid AI källmaterialet. Låt det formulera — inte uppfinna. Och granska alltid faktapåståenden mot källan, inte mot AI:s text.
KRITISKTBehöver medarbetare veta att AI använts?
Det finns inget entydigt juridiskt krav på att intern kommunikation märks ut som AI-genererad. Men det är ändå en fråga värd att ta ställning till — och svaret beror på sammanhang.
Tre nivåer att skilja på:
- AI som skrivstöd. Du har skrivit texten, AI har hjälpt till med formuleringar och omformuleringar. Inget annorlunda än att använda grammatikverktyg — ingen transparensskyldighet.
- AI som primär skribent. AI har producerat texten, du har bearbetat och godkänt. God praxis att ha en intern policy för detta — inte nödvändigtvis att deklarera det i varje text.
- AI-genererat innehåll som presenteras som personligt. VD:ns "personliga" reflektion skriven helt av AI och aldrig granskad av VD:n — det är ett etiskt problem oavsett juridik. Medarbetare som får reda på det tappar förtroende för kommunikationsavdelningen och ledningen.
Vad gäller för AI-genererat innehåll?
Rättsläget kring upphovsrätt för AI-genererat innehåll är fortfarande under utveckling i Sverige och EU. Några praktiska utgångspunkter för intern kommunikation:
- Text du instruerat AI att skriva ägs inte automatiskt av dig. Men intern kommunikation publiceras inte kommersiellt och upphovsrättsfrågan är sällan relevant i praktiken för intranätinlägg och nyhetsbrev.
- Text du matat in kan vara andras upphovsrätt. Klistrar du in ett pressmeddlande, en artikel eller en rapport i AI — se till att du har rätt att använda det materialet. Det är du som ansvarar, inte AI.
- Bilder är ett eget kapitel. AI-genererade bilder för intern kommunikation är generellt okej att använda — men kontrollera vad er organisations- policy säger och att bilderna inte avbildar identifierbara personer.
Vad du inte matar in i icke-godkända verktyg
Kommunikatörer hanterar ofta information som inte är offentlig: kommande organisationsförändringar, pågående förhandlingar, personalärenden, affärskänslig information.
Grundregeln: icke-offentlig information matas bara in i AI-verktyg som er organisation godkänt och som har avtal som säkerställer att informationen inte används för träning eller delas vidare.
- Ej godkända konsumentverktyg (ChatGPT utan Plus, Gemini i privatläge): aldrig för intern konfidentiell information.
- Godkända organisationsverktyg (Microsoft Copilot via organisationslicens, Claude for Work via avtal): generellt okej för intern information — kontrollera med IT.
- Personalärenden och känsliga uppgifter om individer: aldrig i AI-verktyg utan explicit godkännande från dataskyddsombudet.
Vad en AI-policy för kommunikationsfunktionen bör täcka
- Godkända verktyg. Vilka AI-verktyg är godkända för vilka typer av innehåll?
- Faktaverifikation. Hur säkerställs att AI-genererat innehåll faktagranskas innan publicering? Vem är ansvarig?
- Konfidentialitetsgränser. Vad får och vad får inte matas in — beroende på verktyg och informationsklass.
- Avsändaransvar. Klargör att avsändaren — kommunikatören, chefen, VD:n — alltid är ansvarig för texten oavsett hur den producerats.
- Granskning av personlig kommunikation. Texter med en namngiven avsändare ska granskas och godkännas av den personen, inte bara av kommunikationsavdelningen.