AI bestrijden met AI

Elena Poincet_CEO TEHTRIS-500300

Het aantal bedrijven dat kunstmatige intelligentie (AI) toepast, is volgens Gartner sinds 2015 met meer dan 270% gestegen. Deze technologie biedt mogelijkheden om de huidige uitdagingen voor de economie, maatschappij en veiligheid aan te pakken. Maar het biedt ook mogelijkheden voor cyberaanvallers die het aanvalsoppervlak van hun doelwitten zien toenemen en AI kunnen gebruiken voor kwaadaardige doeleinden. Elon Musk had in 2017 al gewaarschuwd voor de risico's van ongereguleerde AI, die hij een "groot probleem" voor onze samenleving noemde.

AI-aanvallen: wat zijn de risico's?

Hoewel er tot nu toe geen grootschalige op AI gebaseerde aanvallen zijn geweest, zal deze dreiging in de nabije toekomst ongetwijfeld toenemen. Het gebruik van AI zal de snelheid, omvang en complexiteit van aanvallen doen toenemen. AI kan bijvoorbeeld worden gebruikt voor:

  • Social engineering: door data over een doelwit te gebruiken (bijvoorbeeld via sociale netwerken en e-mails) kan AI de identiteit van het doelwit nauwkeurig nabootsen. Gepersonaliseerde spearphishing e-mails met de toon, persoonlijkheid en taalgebruik van het doelwit maken de aanval zeer moeilijk te detecteren.
  • Betere aanvallen: AI-malware kan zich aanpassen aan zijn omgeving, erin opgaan en detectie vermijden. Dit is met name mogelijk door het gedrag van een menselijke gebruiker te imiteren. Na observatie kan het in realtime leren zich op een specifiek eindpunt te richten of besluiten zichzelf te vernietigen of te pauzeren. AI-malware kan ook onopvallend data stelen door zich alleen te richten op informatie van strategisch belang.
  • Manipulatie van AI-systemen: Een aanvaller kan toegang krijgen tot de dataset die wordt gebruikt om het AI-algoritme te "trainen" en deze wijzigen, waardoor de werking ervan in gevaar komt. Als een aanval de binnenkomende data wijzigt, kan dit ook de reactietijd van de AI beïnvloeden. Dit soort aanvallen om het AI-systeem slecht te laten functioneren vormt een ernstig risico, bijvoorbeeld in de context van autonome auto's of industriële apparatuur.

AI in cybersecurity

Cybersecurity-experts worden tegenwoordig geconfronteerd met meerdere uitdagingen: een recordaantal aanvallen, gebrek aan deskundig personeel, cybermoeheid en toenemende complexiteit. Deze gevaarlijke situatie heeft geleid tot het gebruik van AI in cybersecurity die zich kan aanpassen aan AI-aanvallen. Daarbij bieden moderne defensieve AI-oplossingen verschillende voordelen, waaronder:

  • Meer efficiëntie bij het voorkomen dat malware en andere soorten aanvallen een systeem infiltreren. Dit is mogelijk door een 24/7 reactie te bieden zonder menselijke tussenkomst.
  • Detectie van geavanceerde bedreigingen en zelfs voorheen onbekende aanvalspatronen. Bij software die gebouwd is om snel veel bestanden tegelijk te versleutelen, kunnen AI en machine learning systemen bijvoorbeeld verdacht gedrag detecteren. Als de software zichzelf onvindbaar probeert te maken, is dat ook een teken dat de software niet legitiem is.
  • Geautomatiseerde respons, door te leren van elk incident. Hierdoor kunnen veel repetitieve taken worden afgehandeld, zoals het reageren op een groot aantal waarschuwingen voor kleine risico's. En zo kunnen analisten prioriteit geven aan grotere incidenten.

De uitdagingen van het gebruik van AI in cybersecurity

Een belangrijke uitdaging van AI in cybersecurity ligt in het concept explainability. Aangezien de technologie zich voortdurend aanpast en evolueert worden AI-systemen vaak vergeleken met zwarte dozen, omdat het besluitvormingsproces niet transparant is.

Het concept Explainable Artificial Intelligence (XAI) streeft ernaar dit proces transparanter - en dus begrijpelijker - te maken en inzicht te geven in wat tot een AI-beslissing heeft geleid.

Het doel van XAI is dan ook om:

  • Het AI-resultaat duidelijker te maken voor de analist, die daarop kan vertrouwen om de relevantie ervan te beoordelen of de reactie op een bedreiging te verbeteren.
  • Het AI-systeem te verbeteren wanneer de datawetenschapper vooroordelen vaststelt. Het is dan namelijk mogelijk om vast te stellen waar en waarom die vooroordelen zijn opgetreden en er kunnen stappen worden ondernomen om ze te beperken.
  • Aanvallen te detecteren die bedoeld zijn om een AI-systeem te beschadigen. Dit kan door de kwaliteit van de data te controleren.

Een ander belangrijk punt is het ethische aspect van AI. Zowel internationale organisaties als particuliere bedrijven willen het gebruik van deze technologieën reguleren. Zo werkt de Europese Unie momenteel aan richtlijnen om AI te reguleren en Microsoft heeft zijn tweede whitepaper gepubliceerd ten gunste van verantwoorde intelligentie.

Tegelijkertijd betekent het gebrek aan data in de cybersecurity-sector dat AI zich niet volledig kan ontwikkelen. Vooral niet op basis van een stabiele database. Bij cybersecurity moet AI dus worden gebruikt in combinatie met fundamentele cybersecurity-regels en andere tools zoals cryptografie. De strijd tussen AI vs AI zal draaien om de vraag: welke AI beschikt over meer data zodat hij beter kan zijn dan de ander?

 

Éléna Poincet, directeur en oprichtster van TEHTRIS

 

 

Lees ook
NetApp bestrijdt in realtime ransomware

NetApp bestrijdt in realtime ransomware

NetApp biedt nieuwe mogelijkheden waarmee klanten hun data beter kunnen beschermen en herstellen tegen bedreigingen door ransomware. NetApp is één van de eerste die kunstmatige intelligentie (AI) en machine learning (ML) direct in de primaire storage van bedrijven integreert en zo ransomware in real-time bestrijdt. De cyberresiliency-oplossingen v1

Exclusieve samenwerking Orange Cyberdefense en Salvador Technologies verbetert veerkracht OT-omgevingen

Exclusieve samenwerking Orange Cyberdefense en Salvador Technologies verbetert veerkracht OT-omgevingen

Orange Cyberdefense kondigt een exclusieve strategische samenwerking aan met Salvador Technologies. Dankzij deze samenwerking komt Salvador’s Cyber Recovery Unit op de Nederlandse markt beschikbaar en breidt Orange Cyberdefense het portfolio rondom OT-securitydiensten verder uit. Met de oplossing van Salvador kunnen organisaties hun getroffen pc’s1

Mark Slagmolen van ProLion: ‘Databeveiliging kent meerdere stakeholders’

Mark Slagmolen van ProLion: ‘Databeveiliging kent meerdere stakeholders’

ProLion was uiteraard ook dit jaar weer aanwezig op Cloud Expo. Regional Manager Benelux, Frankrijk en Nordics Mark Slagmolen gaf twee presentaties over databeveiliging bij ondernemingen en overheden. De rol van resellers is enorm belangrijk bij het vergroten van die security, maar toch hoort Mark regelmatig dat het moeite kost om dit onderwerp bi1