Voorkom een vals gevoel van veiligheid: waarom het tijd is om in actie te komen

Charles Bovy, Director MSS presales EMEA  NTT Security

Artificial intelligence (AI) is niet langer science fiction. Het bestaat al en zorgt voor een vierde industriële revolutie die de samenleving radicaal gaat hervormen. De veranderingen in de manier waarop we leven en werken zijn disruptiever dan ooit en op bepaalde vlakken te vergelijken met de uitvinding van het wiel. Dat mag wat overdreven zijn, maar vast staat dat de cyberbeveiliging door de opkomst van AI een fundamenteel onderdeel wordt van de digitale transformatie die nu speelt.

Er is al veel gebruik gemaakt van AI in cybersecurity en detectie van bedreigingen – en het helpt ons zeker bij NTT Security. Maar het is tegelijkertijd goed om de hype enigszins af te zwakken. Hoewel er genoeg reden is om enthousiast te zijn, is AI geen wondermiddel. Er zijn veel meer beproefde en geteste tools en processen die net zo belangrijk of zelfs belangrijker zijn om een organisatie te helpen hun cyberrisico’s te verminderen.

 Geen heilige graal

Om te beginnen het goede nieuws. AI en zijn subdiscipline machine learning zijn hard op weg om onmisbaar te worden in het moderne Security Operations Center (SOC). Hier kunnen systemen die met deze technologie worden aangedreven enorme hoeveelheden gegevens vastleggen en de afwijkende patronen herkennen die wijzen op een potentiële bedreiging. Hoewel de meest gebruikelijke aanpak bestaat uit onder toezicht leren – waarbij de analist het algoritme ‘leert’ met welke conclusies het moet komen – zien we steeds vaker effectieve leerprocessen, die zonder menselijke begeleiding werken. Het resultaat? Zeer effectieve detectie van bedreigingen en mogelijkheden om securityteams vrij te maken voor andere taken met meer strategische waarde. Dit is belangrijk omdat we te maken hebben met een enorm tekort aan mensen en vaardigheden in onze sector.

Maar AI is niet de heilige graal voor security. Sterker nog, een te groot geloof zou ons een vals gevoel van veiligheid kunnen geven. Niet alle AI is hetzelfde. De kwaliteit van het algoritme hangt af van hoe het is getraind en welke data worden ingevoerd. Slechte datakwaliteit zal leiden tot zwakke AI, een slecht herkenningspercentage en een falende beveiliging. Daarom moeten we niet blindelings vertrouwen op het label ‘powered by machine learning’.

Laten we ook niet vergeten dat AI kan worden benut door cybercriminelen zelf: bijvoorbeeld om het sociaal gedrag van beoogde slachtoffers in kaart te brengen, zoals hun e-mailschrijfstijl en communicatiegedrag. Daarmee wordt de kans op een succesvolle spearphishing-aanval een stuk groter. Als beveiligingsprofessionals moeten we openstaan ​​voor de kansen, maar niet blind zijn voor de risico’s van AI.

Terug naar de basis

In onze sterke aandacht voor geavanceerde machine learning-algoritmen moeten we er ook voor waken dat we best practices negeren die een veel grotere impact op onze cyberbeveiliging zouden kunnen hebben. Laten we daarom onze aandacht opnieuw richten op het trainen van personeel in het opsporen van phishing-aanvallen. Ten slotte, cybersecurity is een gedeelde verantwoordelijkheid, wat de belangrijkste boodschap was tijdens Cyber ​​Security Month van 2018.

Senior-managers vormen in dit verband een zwakke schakel. Onze tests onder deze groep in klantorganisaties brachten enkele opmerkelijke resultaten aan het licht: in bijna 100 procent van de gevallen slaagden we erin om accounts binnen te dringen om toegang te krijgen tot kritieke systemen – soms binnen enkele minuten.

Denk ook aan de traditionele beveiligingspatches. Die hebben extra urgentie gekregen, nu organisaties zien dat een explosie in het aantal IoT-eindpunten ervoor zorgt dat deze voortdurend moeten worden geüpdatet. Het werken met heterogene apparaten met een lange levensduur, die gebaseerd zijn op legacy-protocollen, maken dergelijke updates een enorme uitdaging, ervan uitgaande dat patches door fabrikanten worden verstrekt. Als u niet zeker weet waar u met uw nieuwe IoT-omgeving moet beginnen, probeer dan eerst een veiligheidsrisicobeoordeling uit te voeren op basis van richtlijnen zoals ISO/IEC 27005, ISA/IEC 62443 of AVG. Ontwikkel beveiligingsbeleid, implementeer netwerksegmentatie, houd onderhoudstoegang bij en voer rigoureuze pentesten uit. AI kan helpen met anomalie-detectie, maar alleen als onderdeel van een meerlaagse benadering.

Zijn we vervolgens klaar voor het echte werk? Het antwoord op deze vraag is ja en nee. We moeten eerst ons beveiligingshuiswerk doen. Slimme detectie op basis van machine learning-mogelijkheden is nog efficiënter als we de basisprincipes zoals patching, identiteitsbeheer, netwerksegmentatie en dergelijke eerst implementeren. Dat helpt organisaties om aanvallen onder controle te houden en naar een proactieve strategie toe te werken. Bovendien kunnen we deze basisstrategieën combineren met nieuwe technologieën, zoals opzettelijke misleiding, om onze kritieke gegevens uit het zicht van aanvallers te houden of hen op dwaalsporen te brengen

Laten we ook het bredere beeld niet vergeten. De meest recente versie van het Risk: Value-rapport van NTT Security benadrukt dat IT-afdelingen momenteel minder geld uitgeven aan beveiliging dan vorig jaar, terwijl het aantal organisaties met een formeel beveiligingsbeleid nauwelijks gewijzigd is sinds 2017. Dit moet veranderen.

Wie bepaalt de regels?

Bovenal moeten we onthouden dat AI alleen zo goed is als de mensen die de algoritmes schrijven en trainen. De vooroordelen van mensen kunnen maar al te gemakkelijk leiden tot vooringenomen machine-leerresultaten. Omdat deze algoritmes steeds complexere beslissingen nemen, wordt het moeilijker dan ooit om te begrijpen hoe ze tot deze beslissingen komen. Vraag is: wie bepaalt de regels? De beslissingen van machines zullen steeds meer onze toekomst domineren. In cybersecurity zou dit het verschil kunnen betekenen tussen het beschermen van honderdduizenden klanten tegen een grote storing in de dienstverlening. Maar de vraag blijft: vertrouwen we de machine? Het is een vraag die we snel moeten beantwoorden. Daarom is het tijd om actie te ondernemen – leg niet alle eieren in één mand. Gebruik AI voor bedreigingsdetectie en cyberdefensie, maar denk er ook aan om een ​​slimme en proactieve cyberstrategie te implementeren, die is verrijkt door nog slimmere mensen!

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze website gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.