AI-ORDLISTAN

SVENSKA FÖRKLARINGAR // UTAN JARGONG // A–Ö

OM ORDLISTAN

När texterna är på engelska men du tänker på svenska

AI-världen är full av engelska termer: LLM, hallucination, RAG, fine-tuning, embeddings. De dyker upp i artiklar, på möten och i verktygens egna hjälptexter — och förklaras sällan på ett begripligt sätt.

Den här ordlistan samlar de vanligaste begreppen med klara svenska förklaringar och, där det är relevant, en praktisk kommentar om vad det faktiskt innebär för dig som använder AI i jobbet.

FÖRSTÅ TERMERNA — ANVÄND VERKTYGEN BÄTTRE

SNABBNAVIGERING

Hoppa till bokstav

A

Teknik

Agent (AI-agent)

AI agent

Ett AI-system som inte bara svarar på frågor utan också planerar, tar beslut och utför handlingar — ofta i flera steg och med tillgång till externa verktyg som webbsökning, filhantering eller kod. Agenten tar mål som indata och bestämmer själv hur den ska nå dem.

I praktiken: En agent kan t.ex. få uppgiften "ta reda på vad konkurrenterna tar betalt och sammanfatta det i en tabell" och sedan söka, läsa, jämföra och skriva utan att du behöver styra varje steg.

Grundbegrepp

AI — Artificiell intelligens

Artificial intelligence

Samlingsbegrepp för datasystem som utför uppgifter som normalt kräver mänsklig intelligens: förstå språk, känna igen mönster, fatta beslut, generera text och bilder. Moderna AI-system bygger oftast på maskininlärning — de tränas på stora datamängder snarare än att programmeras med explicita regler.

I praktiken: ChatGPT, Claude och Gemini är AI. Men "AI" i sig är ett brett begrepp som täcker allt från ditt ansikts-ID till system som skriver juridiska avtal.

Säkerhet

Alignment

AI alignment

Arbetet med att se till att ett AI-systems mål och beteende stämmer överens med mänskliga värderingar och intentioner. En AI som är dåligt alignad kan optimera för fel saker — t.ex. maximera en mätbar parameter på bekostnad av något som egentligen är viktigare.

I praktiken: Alignment är orsaken till att AI-bolag investerar i att modeller ska vara hjälpsamma, ofarliga och ärliga — inte bara kompetenta.

Teknik

API

Application Programming Interface

Ett gränssnitt som gör det möjligt för program att kommunicera med varandra. I AI-sammanhang: ett sätt att ansluta till en AI-modell direkt via kod, utan att gå via en webbgränssnitt. Du skickar text, modellen svarar, din applikation tar hand om svaret.

I praktiken: Företag som bygger egna AI-funktioner i sina produkter gör det via API. Om du bara använder ChatGPT.com behöver du inte tänka på API alls.

B

Etik

Bias — Snedvridning

Bias

Systematiska fel i ett AI-systems utdata som beror på snedvridning i träningsdatan eller i hur modellen utformats. En modell tränad på data som överrepresenterar en viss grupp kan ge orättvisa eller felaktiga svar om underrepresenterade grupper.

I praktiken: Bias är orsaken till att AI inte ska användas ensam för att bedöma jobbansökningar, kreditansökningar eller liknande — den kan ha lärt sig felaktiga mönster från historisk data.

C

Prompt-teknik

Chain of Thought — Tankekedja

Chain of Thought (CoT)

En prompting-teknik där du ber AI att tänka steg för steg innan det ger ett svar, snarare än att hoppa direkt till slutsatsen. Det förbättrar prestandan på komplexa resonemangsproblem, matematik och flerstegsfrågor påtagligt.

I praktiken: Lägg till "Tänk steg för steg" eller "Resonera högt innan du ger ett svar" i din prompt. Ofta ger det märkbart bättre svar på analytiska frågor.

Teknik

Kontextfönster

Context window

Den maximala mängd text (mätt i tokens) som en AI-modell kan "ha i huvudet" vid ett tillfälle — det vill säga den totala mängden input + output i ett samtal. Text som faller utanför kontextfönstret "glöms bort" av modellen.

I praktiken: Om du skickar in ett mycket långt dokument eller har ett väldigt långt samtal kan modellen börja "glömma" vad som sades i början. Nyare modeller har allt större kontextfönster.

D

Risk

Deepfake

Deepfake

AI-genererat ljud eller video som framställer en verklig person som säger eller gör något de aldrig gjort. Tekniken har blivit allt lättare att använda och svårare att detektera.

I praktiken: En källa för desinformation och identitetsbedrägeri. Orsaken till att du bör vara skeptisk till videor och röstklipp av personer i känsliga sammanhang — verifiera alltid via oberoende källan.

E

Teknik

Embeddings — Inbäddningar

Embeddings

En matematisk representation av text (eller bilder, ljud) som siffervektorer i ett högdimensionellt rum. Text med liknande betydelse hamnar nära varandra i det rummet. Embeddings gör det möjligt för AI att "förstå" semantisk likhet utan att matcha exakta ord.

I praktiken: Tekniken bakom RAG (se nedan) och semantisk sökning. Gör det möjligt att söka på innebörd snarare än på exakta ord.

Juridik

EU AI Act

EU Artificial Intelligence Act

EU:s förordning om AI, antagen 2024 och i kraft från 2026. Klassificerar AI-system efter risk (oacceptabel, hög, begränsad, minimal) och ställer krav på transparens, mänsklig kontroll och dokumentation beroende på risknivå. Gäller alla som säljer eller använder AI-system i EU.

I praktiken: Organisationer som använder AI i beslut som rör anställning, kredit, sjukvård eller rättsväsen berörs mest. Chefer och HR-ansvariga bör ha en grundläggande förståelse för vilken riskklass deras AI-system tillhör.

F

Prompt-teknik

Few-shot prompting

Few-shot prompting

En prompting-teknik där du visar AI ett eller flera exempel på önskat format eller resonemang i prompten, istället för att bara beskriva vad du vill ha. AI lär sig mönstret från exemplen och applicerar det på din faktiska fråga.

I praktiken: "Skriv en produktbeskrivning som den här: [EXEMPEL]. Gör nu samma sak för: [PRODUKT]." Fungerar utmärkt för att styra ton, format och struktur.

Teknik

Finjustering

Fine-tuning

Processen att vidareträna en befintlig grundmodell på en specifik, ofta mindre, datamängd för att specialisera den för ett visst område eller en viss uppgift. Resulterar i en modell som är bättre på det specifika området men inte nödvändigtvis på allt annat.

I praktiken: Används av organisationer som vill ha en AI som "känner till" deras produkter, processer eller juridiska sammanhang bättre än en generell modell. Kräver teknisk kompetens och datamängder.

Teknik

Grundmodell

Foundation model / Base model

En stor AI-modell tränad på enorma mängder generell data, avsedd som bas för vidare specialisering. GPT-4, Claude och Gemini är grundmodeller — de kan anpassas och finjusteras för specifika tillämpningar.

I praktiken: Tänk på det som en välutbildad generalist som sedan kan specialiseras. De flesta organisationer bygger på grundmodeller snarare än att träna egna från grunden.

G

Grundbegrepp

Generativ AI

Generative AI

AI-system som genererar nytt innehåll — text, bild, ljud, video eller kod — snarare än att bara analysera eller klassificera befintligt material. ChatGPT, Claude, Midjourney och Sora är alla exempel på generativ AI.

I praktiken: Det stora skiftet de senaste åren. Innan generativ AI var AI bra på att hitta mönster och klassificera. Nu kan den skapa.

Modell

GPT

Generative Pre-trained Transformer

En typ av AI-modell uppfunnen av OpenAI, baserad på Transformer-arkitekturen och tränad på stora textmängder. GPT-4 och GPT-4o är de modeller som driver ChatGPT. "GPT" används ibland felaktigt som synonym för alla AI-chatbotar.

I praktiken: GPT är en specifik modelltyp från OpenAI. Claude (Anthropic) och Gemini (Google) är konkurrenter som bygger på liknande arkitektur men är separata produkter.

Juridik

GDPR och AI

GDPR in AI context

GDPR (dataskyddsförordningen) gäller fullt ut när AI-system behandlar personuppgifter. Det innebär krav på laglig grund, ändamålsbegränsning och säkerhet. Att mata in personuppgifter i ett publikt AI-verktyg utan personuppgiftsbiträdesavtal är i de flesta fall ett brott mot GDPR.

I praktiken: Skriv aldrig in namn, personnummer, hälsoinformation eller kontaktuppgifter om identifierbara individer i ChatGPT eller Claude utan att din organisation har ett PUB-avtal med leverantören.

H

Risk

Hallucination — Fabricering

Hallucination

När ett AI-system presenterar felaktig information med stor självförtroende och utan att signalera att det är osäkert. AI "hittar på" fakta, citat, källhänvisningar eller händelser som inte existerar — och gör det med övertygande språk.

I praktiken: Verifiera alltid faktapåståenden, lagrum, siffror och citat från AI mot primärkällor. AI är ett skrivstöd, inte ett faktaarkiv. Ju mer specifikt påståendet är, desto viktigare att kontrollera det.

I

Teknik

Inferens

Inference

Processen när en färdigtränad modell används för att generera svar — alltså det som händer varje gång du skickar en prompt. Skiljer sig från träning, som är den process där modellen lär sig från data.

I praktiken: Inferens är vad som händer på servern när du trycker enter. Det är inferenskostnaden som gör att API-användning kostar pengar per token.

L

Teknik

LLM — Stor språkmodell

Large Language Model

En AI-modell tränad på enorma mängder text, kapabel att förstå och generera mänskligt språk. GPT-4, Claude och Gemini är alla LLM:er. "Stor" syftar på antalet parametrar — moderna LLM:er har hundratals miljarder parametrar.

I praktiken: LLM är den tekniska termen för det du pratar med i ChatGPT eller Claude. Det är en statisk modell — den lär sig inte av dina konversationer (om inte organisationen specifikt konfigurerat det).

M

Teknik

Maskininlärning

Machine learning (ML)

En delmängd av AI där system lär sig mönster från data utan att explicit programmeras med regler. Modellen tränas på exempel och generaliserar sedan till nya situationer. Modern AI bygger nästan uteslutande på maskininlärning.

I praktiken: Orsaken till att AI kan hantera komplexa uppgifter som det vore omöjligt att skriva regler för — som att förstå nyanser i text eller känna igen ansikten.

Teknik

Multimodal

Multimodal

En AI-modell som kan hantera och generera flera typer av data — till exempel både text och bilder. GPT-4o och Claude 3 är multimodala; du kan skicka in en bild och ställa frågor om den.

I praktiken: Du kan ta en bild på ett dokument, ett recept eller en graf och be AI förklara, sammanfatta eller analysera den — utan att skriva av innehållet manuellt.

N

Teknik

Neuralt nätverk

Neural network

En beräkningsarkitektur löst inspirerad av hjärnan, bestående av lager med noder (neuroner) som transformerar input till output. Moderna LLM:er är djupa neurala nätverk med miljarder parametrar.

I praktiken: Du behöver inte förstå hur ett neuralt nätverk fungerar för att använda AI effektivt — ungefär som du inte behöver förstå en förbränningsmotors termodyn för att köra bil.

P

Teknik

Parameter

Parameter

De justerbara numeriska värdena i ett neuralt nätverk som bestämmer hur det transformerar input till output. En modell med 70 miljarder parametrar har 70 miljarder sådana värden som justerats under träning. Fler parametrar ≈ mer kapacitet, men inte alltid bättre prestanda.

I praktiken: Används som en grov storleksindikator: "7B-modell" (7 miljarder parametrar) vs "70B-modell". Större modeller kräver mer beräkningskraft att köra.

Grundbegrepp

Prompt

Prompt

Den text du skickar till en AI-modell som instruktion eller fråga. Prompten styr vad modellen gör. En välformulerad prompt är den viktigaste faktorn för kvaliteten på svaret.

I praktiken: "Förklara kvantfysik" är en prompt. "Förklara de grundläggande principerna i kvantfysik för en gymnasieelev, utan matematik, i tre korta stycken" är en bättre prompt.

Säkerhet

Promptinjicering

Prompt injection

En attack där skadliga instruktioner döljs i text som AI-systemet bearbetar — t.ex. i ett dokument, en webbsida eller ett mejl. AI:n kan då oavsiktligt följa angriparens instruktioner istället för användarens.

I praktiken: Relevant om du bygger AI-system som bearbetar externa data. För vanliga användare: var försiktig med att låta AI läsa och agera på okänt externt innehåll.

R

Teknik

RAG — Retrieval-Augmented Generation

Retrieval-Augmented Generation

En teknik där AI-systemet kompletterar sin tränade kunskap med information hämtad från externa dokument eller databaser i realtid. Systemet söker fram relevant information och inkluderar den i kontexten innan det genererar sitt svar.

I praktiken: Orsaken till att AI-chatbotar kan svara på frågor om din organisations interna dokument utan att ha tränats på dem. Vanligt i entreprise-AI-lösningar.

Teknik

RLHF

Reinforcement Learning from Human Feedback

En träningsmetod där mänskliga bedömare rankar modellens svar, och modellen tränas att producera svar som liknar de högrankade. Viktigt för att göra modeller hjälpsamma, ofarliga och ärliga — inte bara textkunniga.

I praktiken: Orsaken till att moderna AI-modeller är trevliga att prata med och undviker skadligt innehåll, jämfört med tidigare modeller som var mer råa och oförutsägbara.

S

Teknik

SLM — Liten språkmodell

Small Language Model

En språkmodell med färre parametrar än en LLM, designad för att köras lokalt på en enhet (laptop, telefon) eller med lägre beräkningskostnad. Ofta specialiserad på en specifik uppgift snarare än generell kompetens.

I praktiken: Microsofts Phi-4 och Metas Llama-modeller i mindre storlekar är SLM:er. Alternativ för organisationer som av sekretess- eller kostnadsskäl vill köra AI lokalt.

Prompt-teknik

Systemprompt

System prompt

En dold instruktion som läggs in innan konversationen börjar och styr modellens övergripande beteende — dess roll, ton, begränsningar och kontext. I produkter som byggs på AI-API:er styr systempromptens hur modellen beter sig mot slutanvändaren.

I praktiken: Om en AI-chatbot alltid svarar på svenska, håller sig till ett visst ämne och inte svarar på frågor utanför det — det styrs av systempromptens. Vanliga användare ser den inte.

T

Teknik

Temperatur

Temperature

En parameter (0–1 eller 0–2 beroende på system) som styr hur "kreativ" eller förutsägbar modellen är. Låg temperatur → mer deterministiska, faktanära svar. Hög temperatur → mer variation och kreativitet, men också mer risk för felaktigheter.

I praktiken: Lägre temperatur för juridiska texter, faktuell sammanfattning och analys. Högre temperatur för brainstorming, kreativt skrivande och idégenerering. Många verktyg exponerar inte den här inställningen direkt.

Teknik

Token

Token

Den grundläggande enheten AI-modeller arbetar med. En token är ungefär ¾ av ett ord på engelska (ca 4 tecken), lite kortare på svenska. "Hej, hur mår du?" är ungefär 6 tokens. Modeller har token-gränser för input och output, och API-prissättning är per token.

I praktiken: Relevant när du arbetar med långa dokument eller via API. En bok på 100 000 ord är ungefär 133 000 tokens — de flesta modeller klarar det idag, men det kostar.

Teknik

Transformer

Transformer

Den neurala nätverksarkitektur som ligger till grund för moderna LLM:er, introducerad av Google 2017 i artikeln "Attention Is All You Need". Transformers är bättre på att hantera långa sekvenser och parallellisera träning än tidigare arkitekturer.

I praktiken: GPT står för "Generative Pre-trained Transformer". Du behöver inte förstå arkitekturen för att använda AI — men det förklarar varför alla moderna modeller kallas transformers.

V

Teknik

Vektordatabas

Vector database

En databas optimerad för att lagra och söka i embeddings (vektorer). Möjliggör semantisk sökning — att hitta dokument med liknande betydelse snarare än exakta ordmatchningar. Central komponent i RAG-system.

I praktiken: Om du bygger ett system där AI kan söka i er dokumentation eller era kontrakt används ofta en vektordatabas i bakgrunden. Pinecone, Weaviate och pgvector är vanliga alternativ.

Z

Prompt-teknik

Zero-shot prompting

Zero-shot prompting

När du ber AI utföra en uppgift utan att ge några exempel — du litar på att modellen generaliserar från sin träning. Fungerar för de flesta vanliga uppgifter. Motsatsen är few-shot, där du ger ett eller flera exempel.

I praktiken: De flesta promptar du skriver är zero-shot. "Sammanfatta den här texten" är zero-shot. Om du inte är nöjd med resultatet är det ofta värt att prova few-shot istället.

SAKNAS NÅGOT?

Ordlistan uppdateras löpande

AI-terminologin förändras snabbt. Har du stött på ett begrepp som saknas eller en förklaring som kan förbättras? Hör av dig via kontaktsidan.

SENAST UPPDATERAD: APRIL 2026

NÄSTA STEG

PROMPT-TEKNIK // LÄR DIG SKRIVA BÄTTRE PROMPTAR