Automatisering
Hallusinering
Når AI trygt presenterer informasjon som er feil eller oppdiktet – en kjent svakhet ved LLM-er.
Oppdatert: 2026-01
Hva er hallusinering?
AI-hallusinering skjer når en språkmodell genererer svar som høres troverdige ut, men som er faktisk feil eller fullstendig oppdiktet.
Eksempler:
- Siterer forskningsartikler som ikke eksisterer
- Oppgir feil fakta med stor selvsikkerhet
- Finner opp historiske hendelser
- Gir feil juridisk eller medisinsk råd
Hvorfor er det viktig?
Hallusinering er en av de største risikoenemed AI:
- AI-en vet ikke at den tar feil
- Svarene høres overbevisende ut
- Kan føre til dårlige beslutninger
- Spesielt farlig for medisin, jus, finans
Derfor må AI-generert innhold alltid verifiseres.
Hvordan bruke det?
- Verifiser alltid: Sjekk fakta fra andre kilder
- Be om kilder: "Hvor har du denne informasjonen fra?"
- Vær skeptisk til tall: AI finner ofte på statistikk
- Bruk for ideer, ikke fakta: AI er bra på brainstorming
- RAG: Koble AI til dine egne, verifiserte data
💡 Tips fra Digitalspor
Jo mer spesifikk og faktabasert spørsmålet er, jo større sjanse for hallusinering. AI er best på generelle konsepter og kreative oppgaver.