5min Security

AI-agents worden onontkoombaar voor bedrijven, maar de risico’s ook

Een zakenman in een blauw pak en stropdas staat binnen voor een raam, met een neutrale uitdrukking.
AI-agents worden onontkoombaar voor bedrijven, maar de risico’s ook

AI-agents, of agentic AI, zijn autonome systemen die zijn ontworpen om taken uit te voeren of beslissingen te nemen namens gebruikers. Deze agents kunnen hun omgeving waarnemen, informatie verwerken en acties ondernemen om specifieke doelen te bereiken. Door gebruik te maken van geavanceerde algoritmen en machinaal leren kunnen AI-agents zich aanpassen aan nieuwe informatie en hun prestaties in de loop van de tijd verbeteren, waardoor ze waardevolle hulpmiddelen worden voor het verhogen van de productiviteit en efficiëntie. Analisten voorspellen een flinke groei gezien de enorme voordelen voor organisaties.

Een nieuwe soort identiteit

Alle identiteiten binnen een netwerk, waaronder dus zakelijke gebruikers, IT-professionals en ontwikkelaars, maar ook de machine-identiteiten zoals apparaten en applicaties, gaan op termijn communiceren met resources en services via een laag van deze agents. Deze agents kunnen onderdeel zijn van besturingssystemen, browsers en platformen en bedrijven zullen ze zelf gaan ontwikkelen voor specifieke doeleinden. AI-agents niet gebruiken, is geen optie.

AI-agents vormen naast menselijke en machine-identiteiten een nieuwe, derde categorie. Hoewel ze qua aard onder de machine-identiteiten vallen, moeten we qua handelingen ze als menselijke identiteit gaan behandelen. Omdat de activiteiten van AI-agents kunnen fluctueren en veranderen op termijn, moeten we niet alleen de die activiteiten monitoren, maar ook de sessies zelf nauwlettender in de gaten houden.

Uit recent onderzoek van CyberArk blijkt dat er nog verschillende gaten zitten in de aanpak van machine-identiteiten, onder andere het ontbreken van een overkoepelende security-strategie hiervoor en het feit dat de machine-identiteiten zo gefragmenteerd door de organisatie heen aanwezig zijn. Met de opkomst van AI-agents zal die uitdaging nog groter worden.

Vijf onverwachte beveiligingsrisico’s aan AI-agents

1. Mensen en hun computers als geavanceerde productiviteitsmachines
Of het nu gaat om het inzetten van de mogelijkheden van agents op de computer, de browser of SaaS-applicaties (waarschijnlijk een combinatie van alle), de productiviteit van een gebruiker kan enorm toenemen. Agents stellen gebruikers in staat om managers te worden van hun eigen virtuele teams die interactief en autonoom kunnen werken. Of het nu gaat om een interne bedreiging of een externe aanvaller, het risicoprofiel van een gecompromitteerde “gewone” zakelijke gebruiker die intensief gebruik maakt van AI verandert aanzienlijk.

2. Shadow AI-agents: ongeziene autonomie
AI-agents kunnen achter de schermen autonoom worden ingezet door AI- en ontwikkelingsteams. Gebruikers kunnen ze ook inzetten via SaaS-applicaties, tools van het besturingssysteem of de browser. In alle vormen zullen we de toepassing van agents zien zonder de juiste IT- en securityprocessen. Er zullen zich waarschijnlijk situaties voordoen waarin IT helemaal geen zicht heeft.

Dit gebrek aan zichtbaarheid levert shadow AI-agents op, en brengt aanzienlijke beveiligingsrisico’s met zich mee, omdat ongeautoriseerde AI-agents ongecontroleerd kunnen werken en deze risico’s op onverwachte plaatsen kunnen introduceren.

3. Ontwikkelaars als Full-Stack R&D en operationele afdelingen
De introductie van generatieve AI heeft de productiviteit van ontwikkelaars vergroot. AI-agents kunnen ontwikkelaars volledig transformeren van individuele medewerkers naar uitgebreide éénpersoons R&D- en operationele afdelingen. Met AI-agents kunnen ontwikkelaars het volledige end-to-end applicatieontwikkelings- en onderhoudsproces zelfstandig beheren, inclusief codering, integratie, QA, implementatie, productie en probleemoplossing.

Met de introductie van AI-agents nemen de productiviteit en verantwoordelijkheden van ontwikkelaars toe, wat leidt tot een verhoging van hun privilegeniveau. Als de identiteit van een ontwikkelaar wordt gecompromitteerd, escaleert het risico bijgevolg enorm, waardoor het een van de machtigste identiteiten in de onderneming wordt.

4. Human-in-the-loop: Risico’s en gevolgen
Naarmate organisaties agentic AI implementeren, wordt het human-in-the-loop proces cruciaal voor het valideren en garanderen dat agents presteren zoals bedoeld. Deze mensen zullen belangrijke verantwoordelijkheden hebben, waaronder het goedkeuren van uitzonderingen en verzoeken van agents. Menselijke input zal ook het toekomstige gedrag van deze zelflerende AI-agents beïnvloeden.

Aanvallers kunnen zich op deze mensen richten om de architectuur te infiltreren, privileges te escaleren en ongeautoriseerde toegang te krijgen tot systemen en gegevens. Het human-in-the-loop proces is essentieel voor het behouden van controle en overzicht, maar het vormt ook een aanzienlijke kwetsbaarheid als deze sleutelfiguren worden gecompromitteerd.

5. Miljoenen beheren: AI-agent toezicht
Machine-identiteiten vermenigvuldigen zich in een ongekend tempo en overtreffen nu de menselijke identiteiten met maar liefst 45 tegen 1. En dat kan nog maar het topje van de ijsberg zijn. Met projecties zoals Jensen Huang’s visie voor NVIDIA – 50.000 mensen die 100 miljoen AI-agents per afdeling beheren – zou de verhouding wel eens meer dan 2.000 tegen 1 kunnen worden. Miljoenen AI-agents in een bedrijfsomgeving zijn zelfs nog logischer, omdat de best practices voor het ontwikkelen van toepassingen die AI-agents gebruiken suggereren om taken op te splitsen in meerdere kleinere gespecialiseerde agenten die samenwerken om een breder doel te bereiken.

Deze exponentiële toename en het enorme volume aan machine-identiteiten zorgen voor aanzienlijke uitdagingen bij het beheren en beveiligen van deze identiteiten.

De toekomst van agentic AI security

Organisaties moeten zorgen voor veilige, compliant en vertrouwde implementaties om AI-agents veilig op grote schaal in te zetten. De belangrijkste vereisten zijn volledig inzicht in activiteiten, sterke authenticatiemechanismen, toegang met zo min mogelijk privileges, just-in-time (JIT) toegangscontroles en uitgebreide sessie-audits om acties te herleiden naar hun identiteiten. Dit is essentieel voor zowel menselijke als machine-identiteiten.

Dit is een ingezonden bijdrage van Mark-Peter Mansveld, country manager Nederland, en Yuval Moss, VP Solution for global strategic partners bij CyberArk.