En hoe je er wél mee begint
De afgelopen maanden krijg ik regelmatig de vraag “waar moeten we beginnen met AI?”
Bedrijven weten dat ze er ‘iets’ mee moeten, maar hebben het druk met andere dingen. De vervolgvraag is dan ook vaak: “moet dat nu al?”
Het korte antwoord: ja.
Niet omdat je anders morgen achterloopt, maar omdat je medewerkers waarschijnlijk nú al met AI-tools werken. In een recent onderzoek onder 1.800 Nederlanders blijkt dat meer dan tweederde wekelijks AI gebruikt, met ChatGPT als koploper.
Daarnaast was er recent ophef omdat gesprekken met ChatGPT vindbaar waren op Google; sommigen in strijd met de privacywetgeving.
De vraag is dus niet meer óf je met AI werkt, maar of je daar als bedrijf grip op hebt.
Het verschil met andere software
Toen je tien jaar geleden een nieuw boekhoudsysteem invoerde, was het duidelijk: dit automatiseert de administratie. Bij een CRM wist je: hiermee houden we klantgegevens bij. Je kon precies vertellen wat het deed en waarom je ervoor koos.
Bij AI ligt dat anders.
Een AI-tool neemt niet alleen werk over, maar neemt ook beslissingen. Een chatbot bepaalt welke antwoorden klanten krijgen. Een AI-assistent filtert informatie en beïnvloedt daarmee welke gegevens jij onder ogen krijgt. Een sollicitatie-screener beoordeelt kandidaten volgens criteria die jij misschien niet eens kent.
Dat maakt het lastiger. Want wie is er verantwoordelijk als het misgaat? En belangrijker nog: hoe weet je of de keuzes die zo’n systeem maakt, passen bij hoe jij je bedrijf wilt runnen?
Vier vragen die je moet beantwoorden
Voordat je aan beleid begint, is het goed om te weten wát er precies speelt. Deze vier onderwerpen komen bij vrijwel elk bedrijf terug:
1. Wie beslist eigenlijk wat?
Stel: je HR-afdeling gebruikt een tool die cv’s screent. Het systeem wijst negentig procent af en selecteert tien procent voor een gesprek. Op basis waarvan? Wie controleert of dat eerlijk gebeurt? En als later blijkt dat goede kandidaten zijn afgewezen – wie is daar dan voor verantwoordelijk?
Dit soort vragen moet je van tevoren uitzoeken, niet achteraf.
2. Wat vertel je aan klanten?
Als een klant belt en een AI-systeem beantwoordt de vraag, wil je dan dat hij dat weet? Sommige bedrijven zeggen: transparantie is belangrijk, dus we vertellen het. Andere zeggen: zolang het antwoord klopt, maakt het niet uit.
Beide keuzes kunnen kloppen – maar je moet wel bewust kiezen. Want als je klant het later ontdekt en zich bedrogen voelt, heb je een probleem.
3. Wat blijft mensenwerk?
Een inkoper vertelde me laatst: “Ik kan nu binnen tien minuten offertes vergelijken waar ik vroeger een dag over deed. Maar ik vraag me wel af: ben ik nog wel vakman, of alleen nog maar iemand die een systeem bedient?”
Dat is geen theoretische vraag. Het raakt aan waarom mensen trots zijn op hun werk. En dus aan de vraag of ze bij jou blijven werken.
4. Welke grenzen stel je?
AI-systemen kunnen veel. Ze kunnen persoonlijke gegevens analyseren, patronen herkennen in gedrag van medewerkers, klanten voorspellen voordat ze iets vragen. Maar wil je dat allemaal? Past dat bij wie je als bedrijf bent?
Ook zonder wetgeving moet je hier keuzes in maken. De AI-wet stelt inmiddels eisen, maar de belangrijkste vraag is: wat vind je zelf acceptabel?
Hoe je eraan begint (zonder dat het maanden duurt)
De meeste ondernemers denken bij ‘beleid’ aan dikke rapporten die niemand leest. Dat hoeft niet. Begin klein:
Stap 1: Inventariseer wat er al gebeurt
Vraag je team: welke AI-tools gebruiken jullie nu? ChatGPT voor e-mails? Automatische planningstools? AI-samenvattingen? Je zult verbaasd zijn hoeveel er al gebruikt wordt.
Stap 2: Bespreek de risico’s
Organiseer één werksessie waarin je samen doorneemt: waar kunnen dingen misgaan? Denk aan: verkeerde informatie naar klanten, privacygevoelige data die gelekt wordt, beslissingen die niet kloppen.
Dit hoeft geen juridisch document te worden. Het gaat erom dat iedereen begrijpt wat de kwetsbare punten zijn.
Stap 3: Maak basisafspraken
Schrijf op één A4 de belangrijkste regels. Bijvoorbeeld:
- We gebruiken geen klantgegevens om AI-modellen te trainen
- Belangrijke beslissingen (zoals aannemen of ontslaan) nemen we nooit op basis van AI alleen
- We zijn transparant naar klanten over waar we AI gebruiken
- Voordat we een nieuwe AI-tool inzetten, checken we of het voldoet aan onze privacystandaard
Simpel. Duidelijk. Hanteerbaar.
Wat je ermee wint
“Prima,” denk je misschien, “maar moet ik hier nu tijd aan besteden terwijl ik duizend andere dingen te doen heb?”. Eerlijk antwoord: ja. Om drie redenen:
- Je voorkomt problemen De AI-wet stelt eisen aan bedrijven. Straks kun je beboet worden als je bepaalde high-risk toepassingen gebruikt zonder de juiste waarborgen. Beter om nu grip te krijgen dan later opgeschrikt te worden.
- Je bespaart tijd bij nieuwe tools Als je straks een nieuwe AI-toepassing wilt gebruiken, hoef je niet elke keer opnieuw na te denken. Je toetst het aan je afspraken en weet direct of het past of niet.
- Je behoudt vertrouwen Van medewerkers die weten waar ze aan toe zijn. Van klanten die erop kunnen rekenen dat je zorgvuldig met hun gegevens omgaat. Vertrouwen opbouwen kost jaren, verliezen kan in één dag.
Waar het echt om draait
AI is geen IT-project. Het gaat over de vraag: hoe blijven we ons bedrijf runnen zoals we dat willen, terwijl technologie steeds meer invloed krijgt?
Je hoeft geen expert te worden. Je hoeft niet alles te begrijpen van algoritmes en neurale netwerken. Maar je moet wel weten: wat vinden wij belangrijk? Welke grenzen stellen we? En hoe zorgen we dat iedereen daaraan houdt?
Begin met één gesprek. Vraag je team: als we AI gaan gebruiken, wat moet er dan gegarandeerd goed blijven gaan? Schrijf die antwoorden op. Dat is je startpunt.
Want uiteindelijk draait het om één vraag: hoe run je jouw bedrijf op een manier die past bij jouw waarden, ook als technologie verandert?
Verder lezen
Dit artikel is gebaseerd op onderzoek van onder andere:
- Brynjolfsson & McAfee over hoe AI cognitief werk verandert (The Second Machine Age, 2014)
- Heifetz & Linsky over organisatieverandering die meer vraagt dan technische aanpassingen (Leadership on the Line, 2002)
- Schein over hoe technologie organisatiecultuur raakt (Organizational Culture and Leadership, 2010)
- European Commission over ethische richtlijnen voor betrouwbare AI (2021)


