Tools zoals ChatGPT en Microsoft Copilot maken het mogelijk om sneller teksten te schrijven, marktonderzoek te doen, presentaties te maken of repetitieve taken te automatiseren. Toch hebben veel organisaties, zeker in het mkb, nog geen afspraken vastgelegd over wat medewerkers wel en niet mogen doen met AI.
“De afgelopen jaren heb ik mij gespecialiseerd in AI en leer ik professionals hoe zij tools zoals ChatGPT en Copilot praktisch kunnen inzetten”, zegt Vincent Verhaak, AI-trainer bij IMK Opleidingen. “Wat mij opvalt tijdens trainingen: bijna iedereen gebruikt al AI, vaak zonder dat er duidelijke afspraken over zijn. Dat leidt niet alleen tot risico’s, maar ook tot gemiste kansen om slimmer en efficiënter te werken.”
AI is geen ingewikkelde blackbox

Verhaak begon zijn loopbaan in de marketing- en communicatiewereld, waar hij zijn passie ontdekte voor trainen en kennisdelen. Toen ChatGPT eind 2022 massaal doorbrak, begon hij AI in zijn trainingen te verwerken. Inmiddels geeft hij zowel in-company als open trainingen aan uiteenlopende organisaties: van steigerbouwers en installatiebedrijven tot consultants en bestuurders.
“Mijn insteek is altijd praktisch”, vertelt hij. “AI is geen ingewikkelde blackbox. Ik vergelijk het graag met een Zwitsers zakmes: het zit vol mogelijkheden, maar je moet weten welk mesje je wanneer gebruikt. Alleen dan wordt het écht waardevol.”
In MKB ontbreekt beleid
Dat AI inmiddels breed wordt ingezet, staat buiten kijf. Verhaak: “Uit cijfers blijkt dat wereldwijd zo’n 190 miljoen mensen dagelijks ChatGPT gebruiken. Ook in Nederland zien we steeds meer medewerkers ermee aan de slag gaan. Soms zelfs buiten werktijd, of zonder dat hun werkgever het weet.”
Het probleem: in veel organisaties ontbreekt beleid. Waar privacyprotocollen, social mediabeleid en ICT-reglementen vaak netjes zijn vastgelegd, staat in het personeelshandboek meestal nog niets over AI. “Vooral in het mkb-plus zie ik dat. Grote corporates hebben vaak al HR-teams die hiermee bezig zijn, maar bij kleinere bedrijven ontbreekt het aan tijd of kennis om dit op te pakken. Daardoor uploaden medewerkers bijvoorbeeld klantdata in ChatGPT zonder dat ze zich realiseren dat dit risico’s oplevert”, aldus Verhaak.
Wat hoort er in een AI-beleid?
Volgens Verhaak hoeft een AI-beleid niet complex te zijn, maar moet het wel duidelijke kaders bieden. Minimaal zouden er drie pijlers in moeten staan:
1. Gebruik & toepassing
Leg vast waarvoor AI wél en níet mag worden ingezet. Denk aan teksten genereren, brainstormen of onderzoek doen kan wél; persoonsgegevens of vertrouwelijke klantdata invoeren mag níet.
2. Transparantie & menselijk toezicht
AI is een hulpmiddel, geen beslisser. Medewerkers blijven eindverantwoordelijk voor de output en moeten AI-gebruik melden als dat relevant is, bijvoorbeeld bij HR-besluiten.
3. Ethiek, veiligheid & compliance
Verbied misleidende toepassingen. Benadruk dat medewerkers rekening moeten houden met privacywetgeving (AVG), auteursrecht en de EU AI Act. Vanaf 2 februari 2025 gelden nieuwe verplichtingen. Een daarvan is AI-literacy. Dit betekent dat werknemers én externe dienstverleners die met AI werken een training moeten volgen over veilig gebruik en over wettelijke en ethische standaarden.
“Eigenlijk is het heel logisch”, zegt Verhaak. “In een handboek staan ook afspraken over hoe je met elkaar omgaat op de werkvloer. AI is daar een verlengstuk van: hoe gaan wij om met generatieve AI-systemen? Wat doen we er wel mee, wat niet? Hoe waarderen we de output?”
Investeren in kennis en beleid: zo voorkom je risico's en benut je de kansen van AI.”
Controle blijft cruciaal
Zonder duidelijke richtlijnen lopen organisaties meerdere risico’s. Ten eerste is er het gevaar van datalekken en privacyschendingen. “Het kan zomaar gebeuren dat een medewerker vertrouwelijke klantinformatie deelt met een AI-tool. Daarmee overtreed je mogelijk contractuele afspraken, of zelfs de AVG.”
Daarnaast kan er kwaliteitsverlies ontstaan. “Sommige mensen sturen AI-output direct door, zonder te controleren. Dat is gevaarlijk. Controle blijft cruciaal.”
En tot slot is er het risico van ongelijkheid op de werkvloer. “Als sommige medewerkers AI slim inzetten en anderen niet, kan er een scheve situatie ontstaan. Een beleid helpt om iedereen op een verantwoorde manier mee te nemen", aldus Verhaak.
Rust en duidelijkheid
De rol van HR is volgens Verhaak essentieel. “HR moet niet alleen zelf compliant zijn, maar ook alle medewerkers meenemen in verantwoord AI-gebruik. Dat kan door beleid op te stellen, trainingen te faciliteren en bewustwording te creëren. Duidelijke kaders en begeleiding maken van AI een hulpmiddel.”
Hij ziet in de praktijk dat dit werkt: “In trainingen eindigen we vaak met het gezamenlijk opstellen van richtlijnen. Dat geeft rust én duidelijkheid. Medewerkers weten dan: dit mag, dit niet, en zo gaan we ermee om.”
Verbieden werkt niet, begeleiden wel
Dat AI-beleid binnen enkele jaren net zo normaal wordt als een privacy- en social mediaprotocol, daar twijfelt Verhaak niet aan. “Het konijn is uit de hoge hoed. Iedereen gebruikt AI al, ook als organisaties het formeel nog verbieden. Dan kun je maar beter zorgen voor duidelijke afspraken. Want wie nu stilstaat, loopt straks onnodig achter.”
Zijn belangrijkste advies voor organisaties die vandaag nog niets geregeld hebben? “Begin gewoon. Stel een aantal basisregels op, ga het gesprek aan met medewerkers en investeer in kennis. Verbieden werkt niet; begeleiden wel. Investeren in kennis, in beleid. Zo voorkom je risico’s én benut je de kansen van AI.”
Dit artikel is gesponsord door IMK Opleidingen.