AI-ORDLISTAN
När texterna är på engelska men du tänker på svenska
AI-världen är full av engelska termer: LLM, hallucination, RAG, fine-tuning, embeddings. De dyker upp i artiklar, på möten och i verktygens egna hjälptexter — och förklaras sällan på ett begripligt sätt.
Den här ordlistan samlar de vanligaste begreppen med klara svenska förklaringar och, där det är relevant, en praktisk kommentar om vad det faktiskt innebär för dig som använder AI i jobbet.
Hoppa till bokstav
A
Agent (AI-agent)
AI agent
Ett AI-system som inte bara svarar på frågor utan också planerar, tar beslut och utför handlingar — ofta i flera steg och med tillgång till externa verktyg som webbsökning, filhantering eller kod. Agenten tar mål som indata och bestämmer själv hur den ska nå dem.
I praktiken: En agent kan t.ex. få uppgiften "ta reda på vad konkurrenterna tar betalt och sammanfatta det i en tabell" och sedan söka, läsa, jämföra och skriva utan att du behöver styra varje steg.
AI — Artificiell intelligens
Artificial intelligence
Samlingsbegrepp för datasystem som utför uppgifter som normalt kräver mänsklig intelligens: förstå språk, känna igen mönster, fatta beslut, generera text och bilder. Moderna AI-system bygger oftast på maskininlärning — de tränas på stora datamängder snarare än att programmeras med explicita regler.
I praktiken: ChatGPT, Claude och Gemini är AI. Men "AI" i sig är ett brett begrepp som täcker allt från ditt ansikts-ID till system som skriver juridiska avtal.
Alignment
AI alignment
Arbetet med att se till att ett AI-systems mål och beteende stämmer överens med mänskliga värderingar och intentioner. En AI som är dåligt alignad kan optimera för fel saker — t.ex. maximera en mätbar parameter på bekostnad av något som egentligen är viktigare.
I praktiken: Alignment är orsaken till att AI-bolag investerar i att modeller ska vara hjälpsamma, ofarliga och ärliga — inte bara kompetenta.
API
Application Programming Interface
Ett gränssnitt som gör det möjligt för program att kommunicera med varandra. I AI-sammanhang: ett sätt att ansluta till en AI-modell direkt via kod, utan att gå via en webbgränssnitt. Du skickar text, modellen svarar, din applikation tar hand om svaret.
I praktiken: Företag som bygger egna AI-funktioner i sina produkter gör det via API. Om du bara använder ChatGPT.com behöver du inte tänka på API alls.
B
Bias — Snedvridning
Bias
Systematiska fel i ett AI-systems utdata som beror på snedvridning i träningsdatan eller i hur modellen utformats. En modell tränad på data som överrepresenterar en viss grupp kan ge orättvisa eller felaktiga svar om underrepresenterade grupper.
I praktiken: Bias är orsaken till att AI inte ska användas ensam för att bedöma jobbansökningar, kreditansökningar eller liknande — den kan ha lärt sig felaktiga mönster från historisk data.
C
Chain of Thought — Tankekedja
Chain of Thought (CoT)
En prompting-teknik där du ber AI att tänka steg för steg innan det ger ett svar, snarare än att hoppa direkt till slutsatsen. Det förbättrar prestandan på komplexa resonemangsproblem, matematik och flerstegsfrågor påtagligt.
I praktiken: Lägg till "Tänk steg för steg" eller "Resonera högt innan du ger ett svar" i din prompt. Ofta ger det märkbart bättre svar på analytiska frågor.
Kontextfönster
Context window
Den maximala mängd text (mätt i tokens) som en AI-modell kan "ha i huvudet" vid ett tillfälle — det vill säga den totala mängden input + output i ett samtal. Text som faller utanför kontextfönstret "glöms bort" av modellen.
I praktiken: Om du skickar in ett mycket långt dokument eller har ett väldigt långt samtal kan modellen börja "glömma" vad som sades i början. Nyare modeller har allt större kontextfönster.
D
Deepfake
Deepfake
AI-genererat ljud eller video som framställer en verklig person som säger eller gör något de aldrig gjort. Tekniken har blivit allt lättare att använda och svårare att detektera.
I praktiken: En källa för desinformation och identitetsbedrägeri. Orsaken till att du bör vara skeptisk till videor och röstklipp av personer i känsliga sammanhang — verifiera alltid via oberoende källan.
E
Embeddings — Inbäddningar
Embeddings
En matematisk representation av text (eller bilder, ljud) som siffervektorer i ett högdimensionellt rum. Text med liknande betydelse hamnar nära varandra i det rummet. Embeddings gör det möjligt för AI att "förstå" semantisk likhet utan att matcha exakta ord.
I praktiken: Tekniken bakom RAG (se nedan) och semantisk sökning. Gör det möjligt att söka på innebörd snarare än på exakta ord.
EU AI Act
EU Artificial Intelligence Act
EU:s förordning om AI, antagen 2024 och i kraft från 2026. Klassificerar AI-system efter risk (oacceptabel, hög, begränsad, minimal) och ställer krav på transparens, mänsklig kontroll och dokumentation beroende på risknivå. Gäller alla som säljer eller använder AI-system i EU.
I praktiken: Organisationer som använder AI i beslut som rör anställning, kredit, sjukvård eller rättsväsen berörs mest. Chefer och HR-ansvariga bör ha en grundläggande förståelse för vilken riskklass deras AI-system tillhör.
F
Few-shot prompting
Few-shot prompting
En prompting-teknik där du visar AI ett eller flera exempel på önskat format eller resonemang i prompten, istället för att bara beskriva vad du vill ha. AI lär sig mönstret från exemplen och applicerar det på din faktiska fråga.
I praktiken: "Skriv en produktbeskrivning som den här: [EXEMPEL]. Gör nu samma sak för: [PRODUKT]." Fungerar utmärkt för att styra ton, format och struktur.
Finjustering
Fine-tuning
Processen att vidareträna en befintlig grundmodell på en specifik, ofta mindre, datamängd för att specialisera den för ett visst område eller en viss uppgift. Resulterar i en modell som är bättre på det specifika området men inte nödvändigtvis på allt annat.
I praktiken: Används av organisationer som vill ha en AI som "känner till" deras produkter, processer eller juridiska sammanhang bättre än en generell modell. Kräver teknisk kompetens och datamängder.
Grundmodell
Foundation model / Base model
En stor AI-modell tränad på enorma mängder generell data, avsedd som bas för vidare specialisering. GPT-4, Claude och Gemini är grundmodeller — de kan anpassas och finjusteras för specifika tillämpningar.
I praktiken: Tänk på det som en välutbildad generalist som sedan kan specialiseras. De flesta organisationer bygger på grundmodeller snarare än att träna egna från grunden.
G
Generativ AI
Generative AI
AI-system som genererar nytt innehåll — text, bild, ljud, video eller kod — snarare än att bara analysera eller klassificera befintligt material. ChatGPT, Claude, Midjourney och Sora är alla exempel på generativ AI.
I praktiken: Det stora skiftet de senaste åren. Innan generativ AI var AI bra på att hitta mönster och klassificera. Nu kan den skapa.
GPT
Generative Pre-trained Transformer
En typ av AI-modell uppfunnen av OpenAI, baserad på Transformer-arkitekturen och tränad på stora textmängder. GPT-4 och GPT-4o är de modeller som driver ChatGPT. "GPT" används ibland felaktigt som synonym för alla AI-chatbotar.
I praktiken: GPT är en specifik modelltyp från OpenAI. Claude (Anthropic) och Gemini (Google) är konkurrenter som bygger på liknande arkitektur men är separata produkter.
GDPR och AI
GDPR in AI context
GDPR (dataskyddsförordningen) gäller fullt ut när AI-system behandlar personuppgifter. Det innebär krav på laglig grund, ändamålsbegränsning och säkerhet. Att mata in personuppgifter i ett publikt AI-verktyg utan personuppgiftsbiträdesavtal är i de flesta fall ett brott mot GDPR.
I praktiken: Skriv aldrig in namn, personnummer, hälsoinformation eller kontaktuppgifter om identifierbara individer i ChatGPT eller Claude utan att din organisation har ett PUB-avtal med leverantören.
H
Hallucination — Fabricering
Hallucination
När ett AI-system presenterar felaktig information med stor självförtroende och utan att signalera att det är osäkert. AI "hittar på" fakta, citat, källhänvisningar eller händelser som inte existerar — och gör det med övertygande språk.
I praktiken: Verifiera alltid faktapåståenden, lagrum, siffror och citat från AI mot primärkällor. AI är ett skrivstöd, inte ett faktaarkiv. Ju mer specifikt påståendet är, desto viktigare att kontrollera det.
I
Inferens
Inference
Processen när en färdigtränad modell används för att generera svar — alltså det som händer varje gång du skickar en prompt. Skiljer sig från träning, som är den process där modellen lär sig från data.
I praktiken: Inferens är vad som händer på servern när du trycker enter. Det är inferenskostnaden som gör att API-användning kostar pengar per token.
L
LLM — Stor språkmodell
Large Language Model
En AI-modell tränad på enorma mängder text, kapabel att förstå och generera mänskligt språk. GPT-4, Claude och Gemini är alla LLM:er. "Stor" syftar på antalet parametrar — moderna LLM:er har hundratals miljarder parametrar.
I praktiken: LLM är den tekniska termen för det du pratar med i ChatGPT eller Claude. Det är en statisk modell — den lär sig inte av dina konversationer (om inte organisationen specifikt konfigurerat det).
M
Maskininlärning
Machine learning (ML)
En delmängd av AI där system lär sig mönster från data utan att explicit programmeras med regler. Modellen tränas på exempel och generaliserar sedan till nya situationer. Modern AI bygger nästan uteslutande på maskininlärning.
I praktiken: Orsaken till att AI kan hantera komplexa uppgifter som det vore omöjligt att skriva regler för — som att förstå nyanser i text eller känna igen ansikten.
Multimodal
Multimodal
En AI-modell som kan hantera och generera flera typer av data — till exempel både text och bilder. GPT-4o och Claude 3 är multimodala; du kan skicka in en bild och ställa frågor om den.
I praktiken: Du kan ta en bild på ett dokument, ett recept eller en graf och be AI förklara, sammanfatta eller analysera den — utan att skriva av innehållet manuellt.
N
Neuralt nätverk
Neural network
En beräkningsarkitektur löst inspirerad av hjärnan, bestående av lager med noder (neuroner) som transformerar input till output. Moderna LLM:er är djupa neurala nätverk med miljarder parametrar.
I praktiken: Du behöver inte förstå hur ett neuralt nätverk fungerar för att använda AI effektivt — ungefär som du inte behöver förstå en förbränningsmotors termodyn för att köra bil.
P
Parameter
Parameter
De justerbara numeriska värdena i ett neuralt nätverk som bestämmer hur det transformerar input till output. En modell med 70 miljarder parametrar har 70 miljarder sådana värden som justerats under träning. Fler parametrar ≈ mer kapacitet, men inte alltid bättre prestanda.
I praktiken: Används som en grov storleksindikator: "7B-modell" (7 miljarder parametrar) vs "70B-modell". Större modeller kräver mer beräkningskraft att köra.
Prompt
Prompt
Den text du skickar till en AI-modell som instruktion eller fråga. Prompten styr vad modellen gör. En välformulerad prompt är den viktigaste faktorn för kvaliteten på svaret.
I praktiken: "Förklara kvantfysik" är en prompt. "Förklara de grundläggande principerna i kvantfysik för en gymnasieelev, utan matematik, i tre korta stycken" är en bättre prompt.
Promptinjicering
Prompt injection
En attack där skadliga instruktioner döljs i text som AI-systemet bearbetar — t.ex. i ett dokument, en webbsida eller ett mejl. AI:n kan då oavsiktligt följa angriparens instruktioner istället för användarens.
I praktiken: Relevant om du bygger AI-system som bearbetar externa data. För vanliga användare: var försiktig med att låta AI läsa och agera på okänt externt innehåll.
R
RAG — Retrieval-Augmented Generation
Retrieval-Augmented Generation
En teknik där AI-systemet kompletterar sin tränade kunskap med information hämtad från externa dokument eller databaser i realtid. Systemet söker fram relevant information och inkluderar den i kontexten innan det genererar sitt svar.
I praktiken: Orsaken till att AI-chatbotar kan svara på frågor om din organisations interna dokument utan att ha tränats på dem. Vanligt i entreprise-AI-lösningar.
RLHF
Reinforcement Learning from Human Feedback
En träningsmetod där mänskliga bedömare rankar modellens svar, och modellen tränas att producera svar som liknar de högrankade. Viktigt för att göra modeller hjälpsamma, ofarliga och ärliga — inte bara textkunniga.
I praktiken: Orsaken till att moderna AI-modeller är trevliga att prata med och undviker skadligt innehåll, jämfört med tidigare modeller som var mer råa och oförutsägbara.
S
SLM — Liten språkmodell
Small Language Model
En språkmodell med färre parametrar än en LLM, designad för att köras lokalt på en enhet (laptop, telefon) eller med lägre beräkningskostnad. Ofta specialiserad på en specifik uppgift snarare än generell kompetens.
I praktiken: Microsofts Phi-4 och Metas Llama-modeller i mindre storlekar är SLM:er. Alternativ för organisationer som av sekretess- eller kostnadsskäl vill köra AI lokalt.
Systemprompt
System prompt
En dold instruktion som läggs in innan konversationen börjar och styr modellens övergripande beteende — dess roll, ton, begränsningar och kontext. I produkter som byggs på AI-API:er styr systempromptens hur modellen beter sig mot slutanvändaren.
I praktiken: Om en AI-chatbot alltid svarar på svenska, håller sig till ett visst ämne och inte svarar på frågor utanför det — det styrs av systempromptens. Vanliga användare ser den inte.
T
Temperatur
Temperature
En parameter (0–1 eller 0–2 beroende på system) som styr hur "kreativ" eller förutsägbar modellen är. Låg temperatur → mer deterministiska, faktanära svar. Hög temperatur → mer variation och kreativitet, men också mer risk för felaktigheter.
I praktiken: Lägre temperatur för juridiska texter, faktuell sammanfattning och analys. Högre temperatur för brainstorming, kreativt skrivande och idégenerering. Många verktyg exponerar inte den här inställningen direkt.
Token
Token
Den grundläggande enheten AI-modeller arbetar med. En token är ungefär ¾ av ett ord på engelska (ca 4 tecken), lite kortare på svenska. "Hej, hur mår du?" är ungefär 6 tokens. Modeller har token-gränser för input och output, och API-prissättning är per token.
I praktiken: Relevant när du arbetar med långa dokument eller via API. En bok på 100 000 ord är ungefär 133 000 tokens — de flesta modeller klarar det idag, men det kostar.
Transformer
Transformer
Den neurala nätverksarkitektur som ligger till grund för moderna LLM:er, introducerad av Google 2017 i artikeln "Attention Is All You Need". Transformers är bättre på att hantera långa sekvenser och parallellisera träning än tidigare arkitekturer.
I praktiken: GPT står för "Generative Pre-trained Transformer". Du behöver inte förstå arkitekturen för att använda AI — men det förklarar varför alla moderna modeller kallas transformers.
V
Vektordatabas
Vector database
En databas optimerad för att lagra och söka i embeddings (vektorer). Möjliggör semantisk sökning — att hitta dokument med liknande betydelse snarare än exakta ordmatchningar. Central komponent i RAG-system.
I praktiken: Om du bygger ett system där AI kan söka i er dokumentation eller era kontrakt används ofta en vektordatabas i bakgrunden. Pinecone, Weaviate och pgvector är vanliga alternativ.
Z
Zero-shot prompting
Zero-shot prompting
När du ber AI utföra en uppgift utan att ge några exempel — du litar på att modellen generaliserar från sin träning. Fungerar för de flesta vanliga uppgifter. Motsatsen är few-shot, där du ger ett eller flera exempel.
I praktiken: De flesta promptar du skriver är zero-shot. "Sammanfatta den här texten" är zero-shot. Om du inte är nöjd med resultatet är det ofta värt att prova few-shot istället.
Ordlistan uppdateras löpande
AI-terminologin förändras snabbt. Har du stött på ett begrepp som saknas eller en förklaring som kan förbättras? Hör av dig via kontaktsidan.