Het vraagstuk van verantwoord gebruik van AI-toepassingen binnen organisaties

Eddy-Willems-G-Data-Software-Benelux-2-300x200

Artificial intelligence (AI) heeft in korte tijd zijn stempel gedrukt op vrijwel elke afdeling van organisaties. Of het nu gaat om klantenservice, marketing, data-analyse of financiële planning: AI-tools spelen een cruciale rol bij het verhogen van de efficiëntie van bedrijfsprocessen. Maar weten bedrijven hoe vaak en op welke manier hun werknemers deze AI-tools gebruiken? En zijn werknemers voldoende op de hoogte van mogelijke risico’s van het gebruik van AI-oplossingen?

Het gebrek aan exacte data en statistieken met betrekking tot het gebruik van AI binnen organisaties is een kritisch punt van zorg. Bedrijven worstelen met het nauwkeurig bijhouden van welke AI-tools door welke afdelingen worden ingezet. Dit resulteert in een gebrek aan transparantie en overzicht. Terwijl inzicht in welke AI-tools worden gebruikt cruciaal is om regelgeving op te stellen voor de omgang met AI-oplossingen.

Verantwoord gebruik van AI-tools

Het waarborgen van een verantwoord gebruik van AI-tools binnen organisaties vereist een doordachte aanpak. Dit omvat niet alleen het omarmen van AI-technologie, maar ook het implementeren van effectieve beheersmaatregelen. De volgende drie stappen helpen hierbij:

  1. Wees voorzichtig met bedrijfsdata

Een van de absolute don’ts in het AI-beleid van organisaties is het delen van bedrijfskritieke informatie met openbare AI-modellen zoals ChatGPT, Bard of Bingchat. Zelfs met filters kunnen deze modellen dergelijke data onbedoeld 'hergebruiken'. Het implementeren van Data Loss Prevention (DLP)-tools kan een effectieve manier zijn om te voorkomen dat gevoelige bedrijfsinformatie onbedoeld wordt gedeeld.

  1. Bewustwording creëren

Om bewustwording te stimuleren over het verantwoord gebruik van AI-tools, moeten bedrijven AI opnemen in hun security awareness-trainingen. Medewerkers moeten goed geïnformeerd zijn over hoe AI-tools op een veilige en ethische manier kunnen gebruiken. Daarnaast moeten bedrijven communiceren over de best practices en mogelijke valkuilen bij het gebruik van deze tools.

  1. Continu leren

AI-technologie evolueert voortdurend, en organisaties moeten hun medewerkers de mogelijkheid bieden om hun kennis bij te werken en op de hoogte te blijven van de meest recente ontwikkelingen in AI. En vooral up-to-date blijven over de nieuwe dreigingen en beveiligingsmaatregelen die AI met zich meebrengt.

De schokkende voorbeelden

Helaas zijn er schokkende voorbeelden van organisaties waar werknemers per ongeluk bedrijfsgevoelige informatie hebben gedeeld via AI-chatbots. Deze voorbeelden variëren van theoretische dreigingen zoals ‘prompt injection’-aanvallen tot reële gevallen van datalekken en fraude. Een diepgaand inzicht in deze incidenten is van cruciaal belang om te begrijpen hoe bedrijven het best kunnen reageren op de gevaren die AI met zich meebrengt.

Een verontrustend geval was het lek van 38 terabyte aan bedrijfsdata door AI-engineers van Microsoft. Deze situatie onderstreept het belang van strikte beveiligingsmaatregelen en bewustwording rondom de verantwoorde omgang met AI-tools.

Verbieden geen optie

Sommige organisaties overwegen het gebruik van AI-tools te verbieden om veiligheidsrisico’s te minimaliseren. Echter, het verbieden van AI-gebruik is geen praktische oplossing. Dit kan leiden tot problemen, omdat medewerkers dan misschien juist meer fouten gaan maken om de technologie stiekem te gebruiken. In plaats daarvan is het beter om een gebalanceerde aanpak van educatie, bewustwording en veiligheidsmaatregelen te hanteren.

Het gebruik van AI-tools door werknemers in organisaties is onvermijdelijk. Het is daarom van cruciaal belang dat bedrijven actief actie ondernemen om ervoor te zorgen dat deze technologie verantwoord wordt gebruikt door werknemers. Zo kunnen organisaties ervoor zorgen dat AI een positieve kracht blijft binnen hun bedrijfsvoering en geen bron van zorgen wordt. AI zal blijven evolueren en het is aan bedrijven om ervoor te zorgen dat ze gelijke tred houden en zich wapenen tegen de mogelijke risico’s van deze technologie.

Meer over
Lees ook
Sora: een historische ontwikkeling, maar mét beveiligingsrisico’s

Sora: een historische ontwikkeling, maar mét beveiligingsrisico’s

De introductie van Sora door OpenAI markeert een mijlpaal in videobewerking. De revolutionaire technologie is opwindend, maar roept tegelijkertijd vragen op over de gevolgen van de rol van AI bij het maken van digitale content en cybersecurity.

Op jacht naar de heilige graal: Generative AI versus Applied AI

Op jacht naar de heilige graal: Generative AI versus Applied AI

In deze blog gaan we in op de verschillen tussen generative AI en applied AI. Wat zijn nu eigenlijk de voor-en nadelen van generative AI en wanneer kan je beter kiezen voor applied AI? Het zal je niet verbazen: niet elke omgeving is geschikt voor generative AI.

Visiepaper Tesorion AI in Cybersecurity

Visiepaper Tesorion AI in Cybersecurity

In de paper Artificial Intelligence in Cybersecurity lees je meer over onderwerpen als FraudGPT, ShadowAI, geavanceerde GenAI Phishing en het gebruik van deepfakes in social engineering tactieken.