Uit recent onderzoek blijkt dat Nederlandse organisaties achterlopen op het gebied van AI-beleid. Slechts 27 procent van de Nederlandse organisaties heeft richtlijnen opgesteld voor het gebruik van AI-tools, terwijl wereldwijd al 45 procent van de organisaties dit heeft geregeld. Dit gebrek aan beleid brengt risico's met zich mee en benadrukt de noodzaak van duidelijke richtlijnen en voorlichting over veilig AI-gebruik.
Uit onderzoek van het CBS blijkt dat bijna een kwart van de Nederlanders kunstmatige intelligentie zoals ChatGPT gebruikt. Zonder duidelijke richtlijnen lopen organisaties het risico dat medewerkers onbedoeld vertrouwelijke klantgegevens of strategische bedrijfsinformatie delen via AI-tools. Ook kunnen medewerkers te veel vertrouwen op informatie uit AI-tools zonder die kritisch te beoordelen, wat kan leiden tot foutieve analyses en verkeerde beslissingen.
Een goed AI-beleid biedt organisaties houvast in het verantwoord gebruiken van AI-tools. Dit betekent onder meer het opstellen van duidelijke richtlijnen over bijvoorbeeld welke data organisaties mogen invoeren, en welke AI-tools ze wel of niet mogen inzetten en zo ja, tegen welke voorwaarden. Organisaties moeten daarnaast investeren in voorlichting, zodat medewerkers zich bewust zijn van de risico’s en AI op een veilige en effectieve manier kunnen gebruiken.
Naast heldere richtlijnen is technische ondersteuning essentieel. Tools zoals Microsoft CoPilot bieden een enterprise data protection-optie aan. Deze bescherming zorgt er onder andere voor dat het systeem de gegevens van ingevoerde opdrachten enkel gebruikt voor het beantwoorden van de vraag. Ook het gebruik van interne, beveiligde AI-modellen als alternatief voor tools zoals ChatGPT kan risico's minimaliseren. Dit soort maatregelen helpt voorkomen dat gevoelige bedrijfsinformatie via openbare AI-platforms in verkeerde handen valt.
Het is tijd dat organisaties AI-gebruik serieus nemen en actief werken aan een beleid dat zowel de kansen als de risico’s adresseert. Een duidelijk AI-beleid en de juiste technische maatregelen zorgen voor een veilige en verantwoorde inzet van AI binnen organisaties. Dit voorkomt niet alleen problemen, maar versterkt ook het vertrouwen in AI als hulpmiddel in de werkomgeving.
Bijdrage door Rosa Jong, Darktrace