Hallucinaties en controle
Leer hoe je AI-hallucinaties herkent, voorkomt en output verifieert.
Hallucinaties: wanneer AI dingen verzint
Een van de grootste risico's bij het gebruik van AI is het fenomeen "hallucinatie": de AI geeft een antwoord dat overtuigend klinkt maar feitelijk onjuist is. In deze module leer je hoe je hallucinaties herkent, voorkomt en verifieert.
Wat zijn hallucinaties?
AI-hallucinaties zijn antwoorden die:
- Feitelijk onjuist zijn maar overtuigend klinken
- Verzonnen bronnen of citaten bevatten
- Statistieken noemen die niet bestaan
- Producten of bedrijven beschrijven die niet bestaan
- Gebeurtenissen verzinnen of door elkaar halen
Waarom hallucineren taalmodellen?
Taalmodellen voorspellen het meest waarschijnlijke volgende woord. Ze "weten" niet echt iets - ze genereren tekst op basis van patronen. Dit leidt tot problemen wanneer:
- Het model geen betrouwbare informatie heeft over een onderwerp
- De vraag zeer specifiek is (exacte getallen, data, namen)
- Het model onder druk staat om een antwoord te geven in plaats van te zeggen "ik weet het niet"
- De vraag gaat over recente gebeurtenissen na de trainingsdatum
Hoe herken je hallucinaties?
Let op deze waarschuwingssignalen:
1. Te specifieke details: Als AI zeer precieze getallen of percentages noemt zonder bron, wees alert
2. Oncontroleerbare bronnen: Als de genoemde bronnen niet te vinden zijn via Google
3. Te mooi om waar te zijn: Als het antwoord precies vertelt wat je wilt horen
4. Inconsistenties: Als het antwoord zichzelf tegenspreekt bij doorvragen
5. Verouderde informatie: Als feiten niet overeenkomen met wat je al weet
Strategieen om hallucinaties te voorkomen
1. Vraag om bronnen
> "Geef bij elk feit een verifieerbare bron. Als je iets niet zeker weet, zeg dat dan expliciet."
2. Bouw onzekerheid in
> "Op een schaal van 1-10, hoe zeker ben je van dit antwoord? Wat zijn de belangrijkste onzekerheden?"
3. Vraag om tegenargumenten
> "Geef nu 3 redenen waarom dit antwoord onjuist zou kunnen zijn."
4. Gebruik verificatietools
- Perplexity voor feitelijke claims (geeft bronnen)
- NotebookLM voor vragen over specifieke documenten (geen hallucinaties)
- Google Scholar voor wetenschappelijke claims
5. Cross-check met meerdere modellen
Stel dezelfde vraag aan ChatGPT en Claude. Als ze verschillende antwoorden geven, is nader onderzoek nodig.
Het verificatieproces
Voor elk belangrijk AI-antwoord, volg dit proces:
1. Scan op claims: Identificeer alle feitelijke claims in het antwoord
2. Prioriteer: Welke claims zijn het belangrijkst voor je beslissing?
3. Verifieer: Controleer de top-3 claims bij onafhankelijke bronnen
4. Documenteer: Noteer welke claims zijn geverifieerd en welke niet
Wanneer is verificatie extra belangrijk?
- Bij financiele beslissingen
- Bij juridische kwesties
- Bij medische of gezondheidsadvies
- Bij publicatie van content met feitelijke claims
- Bij advies aan klanten of management
De juiste mindset
Behandel AI-output zoals je een rapport van een stagiair zou behandelen: waarschijnlijk grotendeels correct en nuttig, maar altijd controleren voor de belangrijke details. AI is een startpunt, geen eindoordeel.
Klaar met deze module?
Markeer als voltooid om je voortgang bij te houden