Bijna een derde van de werknemers gebruikt stiekem AI op de werkvloer, terwijl bijna de helft aangeeft tools te gebruiken die niet door hun werkgever zijn goedgekeurd. Voor 36 procent biedt dit een geheime voorsprong, terwijl drie op de tien bang zijn hun baan te verliezen, schrijft ITPro. Een kwart worstelt met 'AI-imposter syndrome', waarbij ze zich zorgen maken dat collega's hun competenties in twijfel kunnen trekken.
Driekwart IT-professionals gebruikt AI, waarvan 38 procent niet-goedgekeurd
Uit het 2025 Technology at Work Report: Reshaping Flexible Work van Ivanti blijkt dat het gebruik van AI in workflows jaar na jaar groeit, met een stijging van 25 naar 42 procent tussen 2024 en 2025. Vooral IT-professionals maken er massaal gebruik van: driekwart gebruikt AI, waarvan 38 procent niet-goedgekeurde tools.
Werknemers gebruiken AI-tools om productiever te zijn, vaak buiten het zicht van hun leidinggevenden
Brooke Johnson Juridisch adviseur Ivanti
Dit zorgwekkende fenomeen, ook wel 'shadow AI' genoemd, legt grote veiligheidsrisico's bloot. Volgens Brooke Johnson, Ivanti's juridisch adviseur en SVP HR en security, is het cruciaal dat werkgevers hierop inspelen: „Werknemers gebruiken AI-tools om productiever te zijn, vaak buiten het zicht van hun leidinggevenden. Dit brengt het bedrijf in gevaar op het gebied van beveiliging, contractuele verplichtingen en intellectueel eigendom."
Lees ook: Bedrijven overwegen het gebruik van laptops, telefoons en tablets die privé-eigendom zijn, te verbieden, blijkt uit nieuw onderzoek. Reden: toenemende beveiligingsrisico's.
Privacyschendingen, beveiligingsrisico's en problemen rond intellectueel eigendom
Meerdere onderzoeken ondersteunen deze risico's. Uit een studie van Veritas Technologies bleek dat 38 procent van de Britse werknemers gevoelige informatie in AI-tools invoert, terwijl 60 procent zich niet bewust is van de privacy- en beveiligingsinbreuken die dit kan veroorzaken. Ook waarschuwde BCS vorig jaar voor privacyschendingen, beveiligingsrisico's en problemen rond intellectueel eigendom door ongecontroleerd AI-gebruik.
Samsung heeft gebruik AI-tools verboden
Sommige bedrijven hebben al strenge beleidsregels ingevoerd, zoals Apple, Amazon en JP Morgan. Samsung ging verder door AI-tools volledig te verbieden na een datalek veroorzaakt door een medewerker die gevoelige code uploadde naar ChatGPT.
Het opstellen van beleid is echter niet genoeg, waarschuwt Johnson. Werkgevers moeten actief controleren of de regels worden nageleefd en hun personeel opleiden over de ethische en veiligheidsrisico's van AI. Dialoog en transparantie zijn essentieel om het potentieel van AI veilig te benutten zonder de bedrijfseigen risico's te vergroten.
Lees ook
* Cybersecurity is ook bij CEO's een ver van hun bed show. Zij laten dat liever over aan een IT-expert of CISO. Volgend jaar komt daar met de Network and Information Security 2 (NIS2) richtlijn verandering in. Vanaf dan kun je als CEO ook hoofdelijk aansprakelijk worden gesteld bij ondeugdelijke cybersecurity en dus: lees dit artikel.
Ontvang elke week het beste van BusinessWise in je mailbox. Schrijf je hier nu gratis in: