Hopp til hovedinnhold
Automatisering

Hallusinering

Når AI trygt presenterer informasjon som er feil eller oppdiktet – en kjent svakhet ved LLM-er.

Oppdatert: 2026-01

Hva er hallusinering?

AI-hallusinering skjer når en språkmodell genererer svar som høres troverdige ut, men som er faktisk feil eller fullstendig oppdiktet.

Eksempler:

  • Siterer forskningsartikler som ikke eksisterer
  • Oppgir feil fakta med stor selvsikkerhet
  • Finner opp historiske hendelser
  • Gir feil juridisk eller medisinsk råd

Hvorfor er det viktig?

Hallusinering er en av de største risikoenemed AI:

  • AI-en vet ikke at den tar feil
  • Svarene høres overbevisende ut
  • Kan føre til dårlige beslutninger
  • Spesielt farlig for medisin, jus, finans

Derfor må AI-generert innhold alltid verifiseres.

Hvordan bruke det?

  1. Verifiser alltid: Sjekk fakta fra andre kilder
  2. Be om kilder: "Hvor har du denne informasjonen fra?"
  3. Vær skeptisk til tall: AI finner ofte på statistikk
  4. Bruk for ideer, ikke fakta: AI er bra på brainstorming
  5. RAG: Koble AI til dine egne, verifiserte data

💡 Tips fra Digitalspor

Jo mer spesifikk og faktabasert spørsmålet er, jo større sjanse for hallusinering. AI er best på generelle konsepter og kreative oppgaver.