AI helpt ons steeds vaker in het dagelijks werk, van het schrijven van e-mails tot het beantwoorden van klantvragen. Maar soms gaat het gruwelijk mis…
In dit artikel lees je drie bekende voorbeelden van AI-blunders: een advocaat die nepzaken aanhaalde, een fastfood-AI die klanten verkeerd begreep, en een twitter-chatbot die in enkele uren veranderde in een racistische komiek. Dat klinkt allemaal erg grappig en ergens is het dat ook, zolang het niet bij jou gebeurt. Welke lessen kunnen we uit deze blunders halen om te voorkomen dat jij niet in dezelfde valkuil stapt? Je leest het hier.
De advocaat met verzonnen rechtszaken
In 2023 gebruikte een Amerikaanse advocaat ChatGPT om eerdere rechtspraken op te zoeken voor een lopende zaak. De AI leverde keurig klinkende verwijzingen op, compleet met namen van rechtszaken, jaartallen en citaten. Er was echter één probleem: geen van deze zaken bestond echt.
De advocaat nam de teksten over, diende ze in bij de rechter, en werd tijdens de zitting geconfronteerd met fictieve bronnen. Toen de advocaat in de knoop kwam met zijn verdediging en niet anders kon dan toegeven dat zijn argumenten ongegrond waren, reageerde de rechter furieus. De advocaat kreeg een flinke boete en over zijn reputatie kunnen we alleen maar speculeren.
De McDonald’s-drive-through die alles verkeerd verstond
In 2024 besloot McDonald’s in meer dan honderd Amerikaanse vestigingen de drive-through volledig te automatiseren met AI-spraakherkenning. Het idee leek slim: minder personeel, snellere service. In de praktijk werd het chaos.
Klanten klaagden dat de AI hun bestellingen verkeerd begreep, willekeurige producten toevoegde, en geen onderscheid maakte tussen ‘geen’ of ‘extra’ bacon. Dit resulteerde in bizarre bestellingen, tot frustratie en ongeloof van de klanten. Je raad het al: de video’s gingen viraal op TikTok en McDonald’s besloot de pilot (tijdelijk) te stoppen.
De racistische chatbot van Microsoft
Een tijdje eerder, in 2016, lanceerde Microsoft de chatbot Tay op Twitter. Het idee was dat Tay zou leren van gesprekken met jongeren. Het was bedoeld als een leuk experiment in ‘lerende AI’.
Binnen 24 uur was Tay veranderd in een racistisch, seksistisch en complottheoretisch account. Niet omdat de AI dat ‘wilde’, maar omdat gebruikers hem opzettelijk verkeerde dingen aanleerden. Microsoft trok Tay zo snel mogelijk offline en bood hun excuses aan.
Wat gebeurt hier nu eigenlijk?
De fouten die hier gemaakt werden, zijn typische voorbeelden van overmoedigheid van de mens en het overschatten van de technologie. De advocaat ging ervan uit dat een AI altijd op feiten is gebaseerd, McDonalds heeft niet voldoende getest, en Microsoft had zowel het lerend vermogen van de AI als het Twitterpubliek verkeerd ingeschat.
Voor elk bedrijf, groot of klein, geldt: wat je erin stopt, bepaalt wat eruit komt.
AI-hallucinaties
Een hallucinatie is het moment waarop een taalmodel informatie verzint en dat presenteert als feit. Dat kan subtiel zijn, zoals een verkeerd jaartal bij een citaat, of erg groot, zoals het verzinnen van rechtzaken.
Dit ontstaat doordat AI-modellen, zoals in dit geval ChatGPT, voorspellend werken. Ze berekenen welk woord het meest waarschijnlijk volgt, niet welk woord feitelijk juist is. Als er onvoldoende betrouwbare context is, vult het model dit aan met aannames. Daardoor kunnen ze zinnen maken die logisch en overtuigend klinken maar feitelijk onjuist zijn; dat noemen we een hallucinatie.
Vooral als we onder tijdsdruk werken, zullen veel mensen geneigd zijn om sneller tevreden te zijn en oplossingen aan te grijpen die eigenlijk niet echt een oplossing zijn. Meerdere studies hebben uitgewezen dat overmatig gebruik van AI ons denken beïnvloedt. Bovendien zal een AI niet zomaar uit zichzelf toegeven dat het iets niet weet en het zal jou ook niet zomaar tegenspreken als je zelf onjuistheden schrijft. Het is dus belangrijk om kritisch te blijven en je bronnen te controleren.
AI leert van data
Net als bij hallucinaties, wordt het eerstvolgende woord voorspelt op basis van de trainingsdata. De enige informatie die de AI aan kan, is de informatie die je er in stopt. Dit noemen we een bias, ofwel een vooroordeel. Stel dat een AI getraind wordt op data uit Twitter, dan is het enige wat dit AI-model kent datgene wat er op Twitter staat. Stel je een vraag die niet in het Twitter-bestand voorkomt? Dan is de kans op hallucinaties groot.
In het geval van deze Twitter-chatbot bestond de trainingsdata uit gesprekken met jongeren. Nu je weet dat een AI het meest waarschijnlijke woord berekend, kun je je voorstellen wat er bij deze chatbot gebeurde. Jongeren maakten er een spelletje van om de chatbot ongepast te laten reageren, en zo moeilijk is dat dus niet. Wanneer je een chatbot geen grenzen of regels meegeeft, papegaait het gewoon na wat het tot zich heeft gekregen. Troep erin = troep eruit.
Menselijk denken
Niet alleen de AI, maar vooral wij dragen bij aan de fouten. We horen en zien vanalles in de media over wat AI zou moeten kunnen, en we worden daardoor ofwel (te) voorzichtig, ofwel overmoedig.
In dat laatste geval ligt de fout zelden in de technologie, maar vaker bij ons gedrag. Precies dezelfde dingen gebeuren namelijk bij het implementeren van software. Denk aan ERP-systemen, HR-pakketten of nieuwe apps: het idee is goed, de uitvoering hapert. Waarom? Omdat we te veel tegelijk willen, te weinig testen, en/of aannemen dat het wel goed zal gaan, zonder de juiste voorbereidingen te treffen of het proces in zijn geheel te volgen.
Een McDonalds en een Microsoft laten dit heel mooi zien. Dit zijn bedrijven die juist de middelen hebben om volop te investeren in AI, en ook (juist?) zij slaan de plank mis. Deze mislukkingen zijn vaak terug te brengen tot drie menselijke reflexen:
- Blind vertrouwen: we nemen antwoorden over omdat ze er professioneel uitzien.
- Confirmation bias: we geloven wat we wíllen horen, vooral als het in ons straatje past.
- Tijd- of kennisdruk: we hebben haast en daarom controleren of testen we niet voldoende.
Hoe voorkom je dit in jouw bedrijf?
Een nieuwe technologie implementeren in je bedrijf, of dat nou AI is of ‘gewone’ software, is nou eenmaal niet zo gemakkelijk als dat we zouden willen. Gelukkig kunnen we van elkaar leren.
1. Stel duidelijke regels op
Maak een kort intern AI-beleid met daarin de basisregels. Wat mag wel, wat mag niet en wie controleert? Begin hierbij met de vraag waar en hoe je wilt dat AI gebruikt wordt in je bedrijf. Op deze manier wordt AI een hulpmiddel in plaats van een risico.
2. Gebruik AI als meedenker, niet als besluitvormer
Laat een AI je helpen met structuur, ideeën en eerste versies, maar houd de eindverantwoordelijkheid altijd bij een mens. AI kan een tekst schrijven, maar geen context inschatten, juridische nuance wegen of morele keuzes maken.
3. Train je team in kritisch denken
Stel eenvoudige controlevragen, zoals “waar komt deze informatie vandaan?” of “staat dit in lijn met onze bedrijfswaarden?”
4. Beperk wat je invoert
Voer nooit klantgegevens, personeelsinformatie of vertrouwelijke cijfers in zonder te weten waar de data wordt opgeslagen. Check of de AI-toepassing die je gebruikt Europese hosting en een DPA (verwerkersovereenkomst) aanbiedt.
5. Leer herkennen wanneer AI onzeker is
AI geeft niet altijd aan dat het twijfelt, maar je zou tussen de regels door kunnen leren lezen. Als een antwoord bijvoorbeeld veel bijzinnen of vaag taalgebruik bevat (“het lijkt erop dat…”, “sommigen zeggen…”), neem je dat als signaal om het antwoord extra te controleren.
Conclusie
De les is simpel, maar belangrijk: niet de technologie bepaalt het succes, maar hoe wij ermee omgaan. Daarbij horen we de tijd nemen om te begrijpen wat we eigenlijk invoeren.
De bedrijven uit deze voorbeelden gingen niet ten onder aan de technologie, maar aan gemakzucht en gebrek aan controle.
AI is een krachtig stuk gereedschap dat doet wat je vraagt; ook als je de verkeerde vraag stelt.
Of, samengevat:
AI werkt alleen goed als jij blijft nadenken.
Hoe verder?
Wil jij weten hoe je AI op een juiste manier inzet, met oog voor jouw mensen en doelen?
Neem dan contact op!


