Wanneer uw CISO tijdens de volgende bestuursvergadering spreekt over ‘AI-beveiliging’, waar heeft hij het dan precies over? Gaat het over het beschermen van uw AI-systemen tegen aanvallen? Gebruikt hij AI om hackers te vangen? Probeert hij te voorkomen dat werknemers gegevens delen met niet-goedgekeurde AI-diensten? Of zorgt hij ervoor dat uw AI geen schadelijke resultaten oplevert?
Het antwoord zou kunnen zijn: “alle bovenstaande”; en dat is precies het probleem.
Kunstmatige intelligentie is diep geworteld in het bedrijfsleven. Als gevolg hiervan is het kruispunt tussen ‘AI’ en ‘beveiliging’ steeds complexer en verwarrender geworden. Dezelfde termen worden gebruikt om fundamenteel verschillende scopes met verschillende doelstellingen te beschrijven, wat kan leiden tot miscommunicatie, verkeerde toewijzing van middelen en kritieke hiaten in de beveiliging. We hebben een gedeeld begrip en een gemeenschappelijke taal nodig.
Jason Lish (Chief Information Security Officer bij Cisco) en Larry Lidz (VP Software Security bij Cisco) hebben samen met mij dit document geschreven om te helpen bij het aanpakken van deze uitdaging. Samen introduceren we een taxonomie van vijf domeinen, ontworpen om helderheid te brengen in discussies over de veiligheid van AI in bedrijfsvoering.
De uitdaging van communicatie
Stel u dit scenario voor: uw managementteam vraagt u om de ‘AI-beveiligingsstrategie’ van het bedrijf te presenteren tijdens de volgende bestuursvergadering. Zonder een gemeenschappelijke structuur kan elke belanghebbende het gesprek aangaan met een heel andere interpretatie van wat er wordt gevraagd. De gemeente wil informatie over:
- Het beschermen van uw AI-modellen tegen aanvallen van tegenstanders?
- Gebruikt u AI om de detectie van bedreigingen te verbeteren?
- Het voorkomen van datalekken naar externe AI-diensten?
- Het bieden van vangrails voor de veiligheid van AI-uitvoer?
- Het waarborgen van naleving van regelgeving voor AI-systemen?
- Het verdedigen tegen cyberdreigingen die mogelijk worden gemaakt of gegenereerd door kunstmatige intelligentie? Deze dubbelzinnigheid leidt tot zeer reële organisatorische problemen, waaronder:
- Communicatieproblemen tijdens bestuurs- en bestuursvergaderingen
- Verkeerd uitgelijnde beoordelingen van leveranciers: appels met peren vergelijken
- Gefragmenteerde beveiligingsstrategieën met gevaarlijke hiaten
- Verkeerde toewijzing van middelen door te focussen op de verkeerde doelen
Zonder een gedeeld raamwerk hebben organisaties moeite om risico’s nauwkeurig in te schatten, verantwoordelijkheden toe te wijzen en allesomvattende en consistente AI-beveiligingsstrategieën te implementeren.
De vijf domeinen van AI-beveiliging
We stellen een raamwerk voor dat het AI-beveiligingslandschap in vijf duidelijke en opzettelijk verschillende domeinen organiseert. Elk domein behandelt verschillende problemen, heeft verschillende dreigingsactoren, vereist verschillende controles en valt meestal onder verschillende organisatorische eigendommen. De domeinen zijn:
- Bescherming van kunstmatige intelligentie
- Kunstmatige intelligentie voor veiligheid
- AI-beheer
- AI-beveiliging
- Verantwoordelijke AI
Elk domein richt zich op een aparte risicocategorie en is ontworpen om samen met de andere domeinen een alomvattende AI-strategie te vormen.
Deze vijf domeinen bestaan niet op zichzelf; ze versterken elkaar, zijn onderling afhankelijk en moeten bewust worden afgestemd. Lees meer over elk domein in het document, dat dient als startpunt voor sectorale discussies en niet als een voorgeschreven checklist. Organisaties worden aangemoedigd om de taxonomie aan te passen en uit te breiden naar hun specifieke context, met behoud van de belangrijkste verschillen tussen de domeinen.
Structuuruitlijning
Net zoals het NIST Cybersecurity Framework een gemeenschappelijke taal biedt om te praten over cyberbeveiligingsdomeinen zonder de noodzaak van een gedetailleerd cyberbeveiligingsframework zoals NIST SP 800-53 en ISO 27001 te elimineren, is deze taxonomie niet bedoeld om los van meer gedetailleerde raamwerken te werken, maar eerder om een gemeenschappelijk vocabulaire voor de hele sector te bieden.
Daarom is het document gebaseerd op Cisco’s Integrated AI Security and Safety Framework, onlangs geïntroduceerd door mijn collega Amy Chang. Het sluit ook aan bij gevestigde industriële raamwerken, zoals de Coalition for Secure AI (CoSAI) Risk Map, MITRE ATLAS en andere.
Het kruispunt tussen kunstmatige intelligentie en veiligheid is niet één enkel probleem dat moet worden opgelost, maar een verzameling van verschillende risicogebieden; elk vereist andere vaardigheden, controles en organisatorisch eigenaarschap. Door deze domeinen af te stemmen op de organisatorische context kunnen organisaties:
- AI-veiligheidskwesties nauwkeurig communiceren, zonder dubbelzinnigheid
- Risico’s uitgebreid beoordelen op alle relevante gebieden
- De verantwoordelijkheid duidelijk toewijzen aan de juiste teams
- Strategisch investeren in plaats van reactief handelen








