Binnen de securitywereld is er veel te doen over de impact van artificial intelligence. Maar wat doet AI aan de kant van de aanvallers? En hoe wordt het ingezet binnen securityproducten die bedrijven veiliger moeten maken? Is het ook mogelijk om de AI die binnen organisaties wordt gebruikt, te beveiligen? Daar zullen we de komende tijd op Techzine aandacht aan besteden.
Elke vraag behandelen we in een afzonderlijk artikel, waarin experts uit het veld aan het woord komen. Zij namen aan het begin van deze Cybersecurity Awareness Month deel aan een rondetafelgesprek. De deelnemers zijn: André Noordam van SentinelOne, Patrick de Jong van Palo Alto Networks, Daan Huybregts van Zscaler, Joost van Drenth van NetApp, Edwin Weijdema van Veeam, Pieter Molen van Trend Micro, Danlin Ou van Synology, Daniël Jansen van Tesorion en Younes Loumite van NinjaOne. In dit eerste artikel bespreken de rondetafeldeelnemers AI als cyberdreiging.
Hoe groot is de dreiging?
Bij de start van de discussie wordt direct duidelijk dat AI een aanzienlijke impact heeft op het verfijnen van de campagnes van cybercriminelen. Zij weten dat ze de technologie kunnen gebruiken om de impact van hun aanvallen te vergroten. Dit kan op meerdere manieren, waarbij hackers vooral een hoger niveau en een hogere frequentie van aanvallen nastreven. Als ze met behulp van AI zowel betere aanvallen kunnen uitvoeren als vaker kunnen toeslaan, moeten bedrijven zich voorbereiden op het ergste.
Weijdema van Veeam ziet momenteel nog maar een kleine dreiging in het gebruik van artificial intelligence bij cyberaanvallen. “Toen AI opkwam, dachten we dat we veel meer AI-aangedreven aanvallen zouden zien. Maar als je kijkt naar de statistieken uit incidentrespons, is slechts één procent AI-gedreven. De rest bestaat vooral uit social engineering”, aldus Weijdema over de aanvalsfrequentie die niet zo verwoestend is als aanvankelijk gevreesd.
Versterkte social engineering
Het kan echter zo zijn dat aanvallen niet worden geregistreerd als pure AI-aanvallen, maar dat AI wel degelijk wordt gebruikt onder de motorkap. Denk bijvoorbeeld aan phishing-mails die er nu veel professioneler en geloofwaardiger uitzien, in tegenstelling tot de spam-achtige toon van voorheen. Zo’n ontwikkeling verhoogt de slagingskans van een campagne aanzienlijk, mogelijk met een factor van tien. Hoewel een aanval niet volledig door AI wordt aangedreven, wordt hij door de inzet van AI toch veel effectiever.
Van Drenth van NetApp beaamt ook dat de impact op dit moment nog niet zo groot is als voorspeld, maar hij verwacht dat het in de komende jaren zal veranderen. “De intelligentie van aanvallen zal toenemen. Niet alleen bij social engineering, maar ook in andere campagnes. We hebben nog niet het hockeystickeffect gezien waarbij het volume of de complexiteit van aanvallen exponentieel groeit. Toch zijn de verwachtingen voor de komende jaren anders.”
Niemand blijft gespaard
De verfijning van social engineering zorgt ervoor dat eigenlijk iedereen een doelwit kan zijn. Voorheen richtten phishingcampagnes zich op de massa in de hoop dat iemand hapt, ondanks het vaak lage niveau. Nu kunnen zeer gerichte mails worden gemaakt, waarbij cybercriminelen zich voordoen alsof ze precies op de hoogte zijn van de situatie van hun doelwit. Ze verzamelen simpelweg publiekelijk beschikbare informatie en gebruiken deze om een professioneel ogende mail te sturen die nauwelijks te onderscheiden is van een legitiem bericht.
Meerdere deelnemers aan de rondetafel herkennen dit. Denk hierbij aan zogeheten CEO-fraude, waarbij medewerkers een mail krijgen om dringende zaken te bespreken. Die mails zien er echt uit, met een aantrekkelijke titel en een geschetste noodsituatie. Vaak vraagt men in een dergelijke mail om te bellen naar een specifiek nummer, of soms zelfs om geld over te maken. Het is dan niet ondenkbaar dat een medewerker dit ook doet, behalve als deze er op eigen houtje achterkomt dat er iets niet in de haak is.
Volgens Ou is het tegenwoordig meer dan ooit noodzakelijk om een gedegen strategie te hebben om criminelen geen toegang te laten krijgen tot data. Dat is waar het ook met CEO-fraude om te doen is. Met immutable backups van periodes van 7 tot 30 dagen zijn gegevens veilig. “Niemand kan er toegang tot krijgen. Je kan het zelfs niet verwijderen. Zo is het echt beschermd, ook tegen ransomware”, aldus Ou.
Ineens taalgevoel
Ook Noordam van SentinelOne kwam in een situatie terecht die aantoont hoe goed aanvallen zijn. Soms moet een mail meerdere keren worden gecontroleerd om zeker te weten dat het om phishing gaat. “Deze zomer boekte ik een hotel”, begint Noordam de anekdote. “Ik ontving een mail van het hotel. Het was perfect geschreven, zelfs het adres klopte. In de mail werd gevraagd om opnieuw mijn creditcardgegevens door te geven, zodat de boeking bevestigd kon worden. Dat vond ik verdacht. Ik belde het hotel en het bleek niet te kloppen. Maar 99 procent van de mensen zou wel op de link hebben geklikt.”
Noordam benadrukt hiermee dat naast gerichte campagnes er ook een kwaliteitsinjectie op het gebied van taal plaatsvindt. Campagnes van jaren geleden maakten slachtoffers met gebrekkige formuleringen, maar nu zijn AI-modellen zo ontwikkeld dat de mails lijken te komen van echte mensen. Zelfs het schrijven van berichten in lokale talen gaat AI steeds beter af. Door deze doorontwikkeling schrijven sommige AI’s inmiddels beter Nederlands dan menig mens. Phishing-mails zijn enkel nog te onderscheiden door verdachte oproepen tot actie te herkennen.
Kwaadaardige code voor iedereen
De sterkere campagnes van cybercriminelen veroorzaken dus wel degelijk nieuwe risico’s voor organisaties. De vraag is of jouw organisatie en de medewerkers daar voldoende tegen bestand zijn. En zelfs als dat zo is, kunnen dan ook andere soorten vooruitgang worden tegengehouden? Door de mogelijkheden die AI biedt, kunnen namelijk veel meer mensen het pad van cybercriminaliteit bewandelen. Er zijn talloze nieuwe mogelijkheden ontstaan die de drempel voor het opzetten en uitvoeren van campagnes verlagen.
Jansen van Tesorion merkt terecht op dat dit kansen creëert voor minder vaardige mensen. “Onder andere op het gebied van malwareontwikkeling. Als je weet hoe je AI moet gebruiken, kun je tegenwoordig veel meer doen dan tien jaar geleden. Door de juiste vragen te stellen en de juiste input te geven, kan generatieve AI voor je coderen”, aldus Jansen.
Aan tafel ontstaat enige discussie hierover. Een generatieve AI-applicatie kan op het eerste gezicht namelijk goede code schrijven, maar als je dieper kijkt zitten er vaak toch gebrekkige stukken code in. Dit heeft te maken met de input van het model. Al zal dat de komende jaren waarschijnlijk verbeteren. Daarin schuilt het gevaar: op de lange termijn zal de drempel voor het genereren van een verwoestende aanval veel lager worden.
Snelheid neemt toe
Hoe gebrekkig sommige onderdelen van de code ook zijn, het betekent hoe dan ook dat malware veel sneller kan worden gemaakt. De Jong van Palo Alto Networks merkt op dat de tijd die nodig is voor ransomware-ontwikkeling in enkele jaren drastisch is afgenomen. Waar het in 2021 nog minimaal twaalf uur duurde, wordt verwacht dat dit in 2026 nog slechts drie uur zal zijn. Ook hier kun je je afvragen of de code van goede kwaliteit is, maar net als bij de lagere drempel geldt dat het potentieel tot meer aanvallen leidt.
De Jong vraagt zich dan ook af wat de impact zal zijn van deze versnelde ransomware-ontwikkeling. “Plotseling kan iemand zonder ontwikkelervaring binnen drie uur ransomware creëren. Wanneer je als bedrijf vervolgens probeert de bestanden te ontsleutelen, wordt dat erg lastig omdat de software vol bugs zit. Je wordt slachtoffer en moet onderhandelen over de ontsleuteling van je data, maar dan blijkt dat de software niet goed werkt en de nodige kennis ontbreekt, wat het vrijgeven van bestanden bemoeilijkt”, voorspelt De Jong.
Perfecte storm
Wat dat betreft zijn de meeste security-experts aan tafel het erover eens dat we nog aan het begin staan, en dat de potentie van AI in cyberaanvallen nog lang niet volledig is benut. Net zoals bedrijven nu voornamelijk experimenteren met artificial intelligence om het in de komende jaren optimaal te benutten, doen hackers dat ook. Op ondergrondse forums op het internet verhandelen criminelen malafide AI-diensten. Dit kunnen bijvoorbeeld chatbots zijn die veel lijken op ChatGPT, maar waarbij de ethische restricties zijn verwijderd. De chatbot heeft geen morele grenzen meer. Het werkt mee aan het ontwikkelen van malware.
Molen van Trend Micro ziet hierin een nieuwe business ontstaan binnen de hacker community. Waar ransomware-as-a-service een paar jaar geleden opkwam, verschijnen nu steeds vaker AI-diensten die hackers als gereedschap kunnen gebruiken. “Met deze AI-diensten wordt het uitvoeren van een aanval ondersteund. Het is een trend binnen de community om gebruik te maken van diensten van anderen, waardoor iedereen haar eigen specialiteit heeft. Het verlaagt de kosten en verhoogt de effectiviteit”, aldus Molen. Hij voegt toe: “Naast het gebruik van AI voor het ondersteunen bij aanvallen introduceert het gebruik van AI ook securityrisico’s. Een voorbeeld hiervan is dat een medewerker bij het gebruik van een publieke generatieve AI-dienst vertrouwelijke informatie in de prompt zet. Die data wordt dan in feite openbaar gemaakt. Er ontstaat een datalek”
Unieke inzichten

Daarmee zijn we op het punt beland dat AI, net als bij hackers, zowel kansen als risico’s biedt voor organisaties. Hierboven schetsen de experts al voorbeelden van de nieuwe gevaren, al zijn er nog andere risico’s te bedenken. Voor alle nieuwe AI-tools maken medewerkers accounts aan, waarna ze data met deze tools delen. Er hoeft maar één account gehackt te worden om de cymercriminelen toegang te geven tot een berg nieuwe data die ze kunnen gebruiken voor hun aanvallen.
Volgens Huybregts van Zscaler zijn hackers zelfs erg blij dat bedrijven binnen hun ontwikkelteams open-source modellen gebruiken. Teams zetten massaal GPT-achtige modellen in om het ontwikkelproces van apps te versnellen. “Het geeft kwaadwillenden mogelijk unieke inzichten in de organisatie. De AI moet namelijk altijd alles weten, wat hackers kansen biedt om de juiste data te bemachtigen. En ik denk dat hackers unieke omzetkansen hebben, bijvoorbeeld met malware-as-a-service en red teaming”, voorziet Huybregts.
Ook een intern gevaar
De omvang van de externe invloed van AI op aanvallen kan eigenlijk niet los worden gezien van de interne dreigingen die er ook zijn. Loumite van NinjaOne is hierin zelfs erg stellig: intern is het gevaar groter dan extern. Een stukje bewustwording is zeker nodig, want de toegang tot AI is voor iedere werknemer in korte tijd toegenomen. Maar weten medewerkers wel hoe ze AI op een verantwoorde manier kunnen gebruiken? Wanneer men zich niet bewust is van welke informatie wordt verwerkt en of dit binnen de regels van de organisatie past, kan de potentiële productiviteitswinst van AI weleens een flink prijskaartje hebben. AI wordt daarmee onbedoeld een interne dreiging.
“Een organisatie waarmee ik werk, gebruikte AI om een firewall-probleem op te lossen”, verduidelijkt Loumite met een praktijkvoorbeeld. “De AI loste het probleem perfect op door de firewall volledig te verwijderen. Toen de organisatie een maand later gehackt werd, ontdekten ze dat de firewall weg was. De mensen hadden geen idee wat de AI had gedaan. Het zou er dus op neer moeten komen dat je begrijpt hoe je AI veilig en efficiënt gebruikt, anders kan AI zeer gevaarlijk zijn.”
Kennis over dreigingen vertalen naar verdediging
Inzicht in de externe en interne invloeden van AI biedt een goede basis voor de stappen die je kunt zetten. Wil je namelijk een sterkere verdediging opbouwen, dan is kennis over de dreigingen essentieel. Op basis van de punten die de rondetafeldeelnemers aandragen, mogen we concluderen dat AI al een dreiging vormt. Sommige partijen zien het als een kleine dreiging, terwijl anderen het nu al als een groter gevaar beschouwen.
Hoe dan ook, het lijkt erop dat we pas aan het begin staan. Of zoals de titel van dit artikel suggereert: het vuurtje dat kan uitgroeien tot een bosbrand. Een bosbrand die hopelijk beperkt kan worden met de juiste preventieve maatregelen en snel geëlimineerd kan worden wanneer het uit de hand loopt. Daarom zullen we in ons volgende artikel dieper ingaan op de invloed van AI op securitytools.
Dit was het eerste verhaal binnen onze AI in/en cybersecurity-reeks. In het volgend artikel gaan we in op AI in securityoplossingen.
Tip: Het securityplatform lonkt: wat is het en wat levert het op?