Dat vind ik de meest interessante vraag voor 2025. Door hier inzicht in te hebben, heb je namelijk al de helft van de mogelijke achterstand ingehaald. Waarom? Omdat jij dan de richting kan bepalen én omdat jouw medewerkers waarschijnlijk al weten waar hun werk efficiënter kan.
Enkele cijfers op een rij
Heel veel mensen gebruiken AI. Niet alleen in bedrijven maar juist privé. Om je een beeld te geven, gebruik ik als voorbeeld ChatGPT.
ChatGPT is op dit moment de meest-gebruikte AI-tool naast Canva en DeepL1 en de meest bekende. Daarom zijn deze cijfers een goede indicatie en op zijn minst een blik in de toekomst voor de AI-markt.
- ChatGPT staat op dit moment op nummer 9 in de meest bezochte websites wereldwijd, met meer dan 5.19 biljoen bezoekers.2
- Wekelijks wordt ChatGPT door meer dan 400 miljoen mensen gebruikt.3
- Een kwart van alle Nederlanders gebruikt wel eens ChatGPT, waarvan de meeste gebruikers tussen de 20 en 40 jaar oud zijn.4
- In de leeftijdscategorie tussen 25 en 55 wordt werk specifiek als één van de redenen genoemd om ChatGPT te gebruiken.5
Deze cijfers gaan alleen over ChatGPT, maar er zijn nog een hoop andere toepassingen die hartstikke populair zijn. In 2024 gebruikte 75% van de medewerkers AI op het werk. Veel medewerkers gebruikten eigen, niet-goedgekeurde AI-tools.6 Wat betekent dit voor jou?
Verantwoordelijkheid van bedrijven
De AI Act legt een stuk verantwoordelijkheid neer bij bedrijven die AI expliciet gebruiken in hun bedrijfsprocessen. Deze bedrijven moeten zorgen dat de toepassingen die zij gebruiken voldoen aan de geldende eisen. Ook moeten zij aantonen ‘AI-geletterdheid’ te zijn en dus begrijpen hoe ze verantwoord deze toepassingen gebruiken. Dit geldt niet alleen voor degenen die de AI-systemen implementeren en beheren, maar ook voor degenen die ermee werken.
Maar… hoe zit met het privégebruik door werknemers?
Bedrijven worden volgens de huidige regelgeving niet direct verantwoordelijk gehouden voor het privégebruik van AI door medewerkers. Echter, als een medewerker werkgerelateerde informatie invoert, kan dat risico’s met zich meebrengen.
Datalekken & vertrouwelijkheid – Als een medewerker klantgegevens of interne strategieën invoert in een AI-tool, kan dat in strijd zijn met de AVG/GDPR-regelgeving.
Onbetrouwbare output – AI maakt fouten. Als medewerkers AI gebruiken voor rapportages of besluitvorming zonder deze te controleren, kan dat zakelijke schade opleveren.
Compliance-risico’s – De AI Act verplicht bedrijven om transparant te zijn over het gebruik van AI. Als medewerkers zonder beleid AI-tools gebruiken, kan dat leiden tot situaties waarbij bedrijven indirect wél verantwoordelijk worden gehouden.
Wat kun jij doen?
Blijf op de hoogte
Analyseer welke AI-toepassingen gebruikt worden binnen jouw bedrijf en laat je goed informeren over de wetgeving. Op die manier ben je voorbereid en weet je precies wat jouw volgende stap is. Dit kan bijvoorbeeld door een quickscan uit te laten uitvoeren.
AI opnemen in je bedrijfsbeleid
Zorg ervoor dat AI-gebruik geborgd is in je bedrijfsvoering en dat het helder uitlegbaar is voor klanten en medewerkers. Net als voor internetgebruik of social media, is het belangrijk om zelf de kaders te stellen. Investeer in een specialist die je helpt bij de implementatie en naleving.
Medewerkers trainen in veilig AI-gebruik
De beste manier om risico’s te minimaliseren, is door medewerkers bewust te maken en te trainen in hoe ze AI-toepassingen goed gebruiken. En om deze toepassingen goed te gebruiken, hoef je helemaal geen technische kennis of vaardigheden te hebben. Een cursus of training in AI en ethiek kan al veel problemen voorkomen.
Hulp nodig?
De AI-Act dwingt bedrijven om bewuster om te gaan met AI-gebruik. Ook als je zelf nog geen AI gebruikt in je bedrijf is het belangrijk om je voor te bereiden in de vorm van een beleid.
In de vorm van cursussen, trainingen en strategisch advies ondersteun ik bedrijven om AI te implementeren in hun bedrijfsvoering.
Benieuwd hoe AI jouw bedrijf vooruit kan helpen?
Neem contact met me op!
Meer lezen?








