In 2025 zullen de kwaliteit en mogelijkheden van kunstmatige intelligentie (AI) enorm blijven toenemen. In 2024 hebben we belangrijke aankondigingen gezien over ontwikkelingen in AI-agents van bedrijven zoals Microsoft en Salesforce. In 2025 zullen we toenemende innovatie en acceptatie van AI-agents zien, evenals de opkomst van multi-agentsystemen (of “agent swarms”), waarbij groepen autonome agenten samenwerken om complexe taken aan te pakken. Slechts een paar weken geleden lanceerde OpenAI zijn eigen AI-agent die zijn eigen browser kan gebruiken om taken uit te voeren. Deze systemen, waarin teams van autonome AI-agents samenwerken, beloven complexe problemen op te lossen die een enkele AI-agent niet aankan. Deze ontwikkeling brengt echter ook nieuwe uitdagingen met zich mee op het gebied van cyberbeveiliging, zoals extra werk voor Security Operations Centers (SOC’s) en een groter aanvalsoppervlak voor kwaadwillende partijen.
De voordelen van multi-agentsystemen
Multi-agentsystemen kunnen organisaties uit tal van sectoren aanzienlijke voordelen opleveren omdat ze de nauwkeurigheid en uitlegbaarheid van AI-resultaten aanzienlijk verbeteren. In een multi-agentsysteem heeft elke AI-agent een gespecialiseerde taak of focus. Dit stelt hen in staat om taken efficiënter en met meer precisie uit te voeren dan een enkele agent zou kunnen. Bovendien kunnen ze elkaar cross-validatie bieden, waarbij de beslissingen en uitkomsten van de ene agent gecontroleerd worden door een andere. Dit draagt bij aan de betrouwbaarheid van het systeem en dus aan de resultaten die het brengt.
In de gezondheidszorg komen multi-agent systemen bijvoorbeeld naar voren als hulpmiddelen om kennisdeling en effectieve besluitvorming te ondersteunen. Organisaties kunnen echter uitdagingen tegenkomen met betrekking tot nauwkeurigheid wanneer ze alleen vertrouwen op een paar algemene AI-agents, inclusief het risico op hallucinaties (onjuiste of misleidende resultaten). Een mogelijke oplossing is het implementeren van meerdere gespecialiseerde agents die samenwerken met duidelijke protocollen voor informatievalidatie en -integratie. Wanneer ze goed zijn ontworpen met robuuste verificatiemechanismen en goed gedefinieerde manieren om conflicten op te lossen, kunnen deze multi-agentsystemen dienen als betrouwbaardere advieshulpmiddelen.
De potentiële gevaren van onbeveiligde AI-agents
De opkomst van multi-agentsystemen betekent ook dat de AI-agents waarmee zo’n systeem is opgebouwd, steeds meer data verzamelen en verwerken. Ook gevoelige en persoonlijke informatie. Bedrijven zoals Apple, Google en Samsung hebben bijvoorbeeld al vroege AI-agents op mobiele apparaten geïntroduceerd. Dit creëert nieuwe privacy- en securityrisico’s, aangezien deze systemen toegang kunnen krijgen tot persoonlijke accounts en gevoelige bedrijfsinformatie.
Naarmate multi-agentsystemen systemen breder worden omarmd, ontstaan nieuwe aanvalsvectoren zoals data poisoning (o.a. het toevoegen van valse data aan de training- dataset of een deel van de huidige dataset aanpassen of verwijderen), prompt-injectie (kwaadwillende prompts verhullen als goedwillende om zo gevoelige data te lekken) en social engineering. Kwaadwillenden kunnen zwakke plekken in onbeveiligde of fout geconfigureerde AI-agents misbruiken om gevoelige data te manipuleren of vertrouwelijke informatie te stelen. Bovendien wordt het Security Operations Center (SOC) geconfronteerd met een complexere dreigingsomgeving door de grotere onderlinge afhankelijkheid van AI-agents binnen multi-agentsystemen.
Randvoorwaarden voor veilig gebruik van AI-agents and multi-agentsystemen
Om de voordelen van multi-agentsystemen op een veilige manier te benutten, is het essentiel dat organisaties de juiste beveiligingsvereisten creëren.
Gegevensbeveiliging vormt hierbij de basis. Dit vereist dat organisaties duidelijk inzicht hebben in de locatie, toegang en gebruikspatronen van gevoelige gegevens. Hiervoor zijn effectieve systemen voor security posture management en classificatie nodig. Gegevensdetectie- en responstechnologieën zijn cruciaal voor het bewaken en automatisch reageren op verdachte gegevensbewegingen. Zonder deze controles kunnen AI-agents toegang krijgen tot onbeveiligde of onjuiste gegevens, wat leidt tot gebrekkige beslissingen of datalekken.
Zero-trustbeleid en robuust identiteitsbeheer worden met name cruciaal bij AI-systemen. Hoewel veel organisaties een basis zero-trustarchitectuur hebben, vereisen AI-agents strengere controles. Dit omvat het definiëren van expliciete agentrollen en -machtigingen, het vaststellen van strikte communicatiegrenzen en het afdwingen van duidelijke operationele limieten.
Continue monitoring- en auditmogelijkheden zijn essentieel voor het behouden van de systeemintegriteit. Organisaties hebben realtime inzicht nodig in agentinteracties, beslissingspatronen en gegevensgebruik. Dit omvat het volgen van de afstamming van AI-beslissingen, het valideren van modeluitvoer en het bijhouden van uitgebreide auditlogboeken. Deze monitoringsystemen helpen bij het detecteren van anomalieën, het waarborgen van naleving en het bieden van verantwoording voor AI-gestuurde beslissingen.
Conclusie: security by design is key
De snelle vooruitgang van AI-technologieën benadrukt de noodzaak van security by design. Organisaties die multi-agentsystemen willen implementeren, moeten ervoor zorgen dat hun bestaande beveiligingspraktijken voor data, netwerk, identiteit en zero trust niet alleen aanwezig, maar ook effectief zijn. AI moet worden ondersteund door robuuste beveiligingsstrategieën, zodat bedrijven de voordelen kunnen benutten zonder onnodige risico’s te introduceren.
Multi-agentsystemen bieden organisaties veel voordelen, maar het is essentieel om maatregelen te nemen die helpen om de risico’s van deze geavanceerde technologie effectief beheren. Zo kunnen organisaties zich beter wapenen tegen de beveiligingsuitdagingen die multi-agentsystemen met zich meebrengen.
Dit is een ingezonden bijdrage van Darktrace. Via deze link vind je meer informatie over de mogelijkheden van het bedrijf.