Kunstmatige intelligentie betreedt een nieuwe fase. Het gesprek verschuift van modelinnovatie naar operationele realiteit. Organisaties realiseren zich dat het bouwen van AI-modellen vaak het gemakkelijkste deel van het proces is. Het betrouwbaar, veilig en op schaal uitvoeren van deze modellen in bedrijfsomgevingen is waar de complexiteit naar voren komt.
Veel AI-initiatieven vertragen, niet omdat teams GPU’s, data of talent missen, maar omdat er geen uniform bedrijfsmodel is dat al deze elementen veilig met de productie verbindt. AI-systemen zijn geen afzonderlijke toepassingen. Het zijn gedistribueerde ecosystemen van datapijplijnen, inferentiediensten, orkestratielagen en, in toenemende mate, autonome agenten die in realtime met bedrijfssystemen communiceren.
Cisco Secure AI Factory met NVIDIA is gebaseerd op een eenvoudig maar transformerend idee. AI moet worden behandeld als een end-to-end-systeem. Prestaties, beschikbaarheid van gegevens, cloud-native activiteiten en beveiliging kunnen niet afzonderlijk worden ontwikkeld. Ze moeten vanaf het begin samen worden ontworpen.
Op VAST Forward 2026 demonstreren we hoe dit principe zich vertaalt in een veilig, werkend AI-dataplatform. Dit is geen toekomstconcept of hypothetische architectuur. Dit is een real-world, inzetbare referentie-implementatie gebouwd met behulp van NVIDIA versnelde computerinfrastructuur en -software, VAST-dataservices, Cisco-infrastructuur, op Cilium en Tetragon gebaseerd isovalent ondernemingsplatform en Cisco AI Defense. Het weerspiegelt een herhaalbare manier om AI vandaag de dag te operationaliseren, terwijl het in de loop van de tijd blijft evolueren naar een diepere integratie.
De nieuwe realiteit van kunstmatige intelligentie voor ondernemingen
De opkomst van Augmented Retrieval Generation (RAG) en agent-gebaseerde applicaties verandert fundamenteel de manier waarop organisaties met hun data omgaan. AI-systemen zijn niet langer geïsoleerde werklasten. Ze halen voortdurend informatie op, wisselen context uit tussen services en voeren geautomatiseerde acties uit in bedrijfsomgevingen.
Deze transformatie introduceert een nieuw soort operationele uitdaging. Het aanvalsoppervlak wordt dramatisch groter naarmate AI-workloads constant oost-westverkeer binnen Kubernetes-clusters genereren. Runtimegedrag wordt dynamischer naarmate containers bibliotheken laden, ondersteunende processen uitvoeren en communiceren met externe services. Tegelijkertijd introduceren modellen en agenten risico’s waarvoor traditionele beveiligingstools nooit zijn ontworpen, zoals tijdige invoeging, lekken van gevoelige gegevens en ongecontroleerde uitvoering van tools.
Bedrijfsleiders vragen zich niet af of deze risico’s bestaan. Ze vragen zich af of AI meetbare resultaten kan opleveren zonder de organisatie bloot te stellen aan onaanvaardbare operationele of wettelijke blootstelling. Het antwoord ligt in het ontwerpen van AI-platforms waarbij beveiliging onlosmakelijk verbonden is met prestaties en schaalbaarheid.
Het platform bouwen vanuit data
Elk effectief AI-systeem begint met toegankelijke, consistente en onmiddellijk bruikbare gegevens. VAST Data Platform en VAST InsightEngine maken bedrijfsgegevens tot een actieve deelnemer aan AI-workflows in plaats van tot een passieve opslaglaag. Door de opname-, indexerings- en ophaalpijplijnen te automatiseren, zorgt het platform ervoor dat bedrijfsgegevens een vertrouwde context voor AI-systemen kunnen worden, zonder de fragiele en complexe data-engineeringpijplijnen die innovatie vaak vertragen.
Door dit niveau van data-intelligentie uit te voeren op Cisco UCS en NVIDIA versnelde rekenkracht, software en netwerken, kan het platform verder gaan dan experimentele implementaties. Het creëert een herhaalbaar element dat organisaties in verschillende omgevingen kunnen inzetten met consistent prestatie- en levenscyclusbeheer. Manufacturing AI vereist dit niveau van operationele discipline. Zonder dit wordt de schaalvergroting van AI onvoorspelbaar en moeilijk te besturen.
Waar veiligheid moet leven in moderne AI-platforms
De belangrijkste verandering in AI-beveiliging is de locatie. Beveiliging kan zich niet langer alleen richten op het beschermen van de netwerkperimeter of het scannen van containerimages vóór implementatie. Op AI-dataplatforms bestaat het grootste risico nu binnen Kubernetes-clusters en in de AI-applicatie-interacties zelf.
De eerste cruciale uitdaging is de controle van het oost-westverkeer. AI-microservices communiceren continu terwijl ophaalpijplijnen, inbeddingsservices en inferentie-engines gegevens uitwisselen. Zonder sterke segmentatie kan onbedoelde bereikbaarheid van services ontstaan naarmate clusters opschalen, waardoor zijwaartse verplaatsing tussen werklasten mogelijk wordt.
Het op Cilium gebaseerde isovalente ondernemingsplatform pakt deze uitdaging aan door op identiteit gebaseerd netwerkbeleid rechtstreeks binnen Kubernetes af te dwingen. In plaats van te vertrouwen op fragiele, op IP gebaseerde regels, volgt het beleid de identiteit van de werklast terwijl services worden geschaald, gemigreerd of opnieuw worden opgestart. Dit zorgt ervoor dat alleen geautoriseerde services met elkaar communiceren, terwijl de hoge prestaties binnen het versnelde eBPF-netwerk behouden blijven. Het resultaat is consistente handhaving van communicatie met de minste bevoegdheden binnen het cluster.
Netwerksegmentatie alleen kan echter niet onverwacht gedrag binnen containers detecteren. AI-workloads voeren vaak processen uit, hebben toegang tot gevoelige bestanden en laden dynamisch tools en bibliotheken. Zelfs als de netwerkcommunicatie beperkt is, kunnen gecompromitteerde workloads zich tijdens runtime nog steeds onvoorspelbaar gedragen.
Isovalent Enterprise Runtime Security, mogelijk gemaakt door Tetragon, pakt dit tweede risiconiveau aan. Door observatie op kernelniveau van procesuitvoering en bestandsactiviteit te bieden, kunnen operators begrijpen wat werklasten binnen containers doen. Verdacht gedrag kan vroegtijdig worden geïdentificeerd, waardoor organisaties onderzoek kunnen doen en kunnen reageren voordat de problemen verergeren.
Samen creëren deze mogelijkheden een zinvolle en toepasbare Kubernetes-beveiligingsaanpak. Ze bepalen hoe services communiceren en bieden inzicht in het gedrag van workloads tijdens de uitvoering.
Breid de bescherming uit tot de AI-laag zelf
Het snelst groeiende risicooppervlak in AI-omgevingen bevindt zich op de modelgrens. Modellen en agenten opereren in dynamische omgevingen waar gebruikersverzoeken, bedrijfsgegevens en externe tools elkaar kruisen. Traditionele beveiligingstools zijn niet gebouwd om manipulatie van AI-interacties of onveilig gedrag van agenten te detecteren.
Cisco AI Defense brengt bescherming rechtstreeks naar de AI-applicatielaag. Het helpt organisaties kwetsbaarheden in modelcomponenten te analyseren, runtime-beveiligingen toe te passen op aanwijzingen en antwoorden, en te monitoren hoe modellen omgaan met tools en gegevensbronnen. Dit biedt inzicht in het gedrag van AI-systemen en helpt het risico te verkleinen dat bedrijfsgegevens of geautomatiseerde acties van agenten onbedoelde blootstelling veroorzaken.
Als deze laag aanwezig is, omvat de beveiliging de gehele levenscyclus van AI-workloads, van infrastructuur en data tot Kubernetes-operaties en het gedrag van AI-applicaties.
Demonstratie van het veilige, door AI aangedreven dataplatform in actie
Op VAST Forward 2026 zullen we deze architectuur presenteren als een complete en functionele oplossing. Bedrijfsgegevens worden via de VAST-pijplijn omgezet in een AI-ready context. Het platform draait op een Cisco-infrastructuur die is afgestemd op Cisco Secure AI Factory met NVIDIA-ontwerpprincipes. Het Oost-West Kubernetes-verkeer wordt gesegmenteerd met behulp van het op Cilium gebaseerde Isovalent Enterprise-platform, terwijl het runtime-gedrag wordt gemonitord met behulp van op Tetragon gebaseerde Isovalent Enterprise Runtime Security. De AI-interactielaag wordt beschermd met behulp van Cisco AI Defense.
Dit is geen theoretisch project. Dit is een actieve, inzetbare referentiearchitectuur die klanten vandaag de dag kunnen implementeren en tegelijkertijd kunnen blijven evolueren naar diepere integratie en automatisering.
De verschuiving naar veilige AI-resultaten
De belangrijkste les die voortkomt uit de adoptie van zakelijke AI is dat veiligheid niet kan worden gemeten aan de hand van het aantal geïmplementeerde controles. Het moet worden gemeten aan de hand van het vermogen om AI veilig en betrouwbaar op grote schaal te gebruiken.
Een veilig, door AI aangedreven dataplatform stelt organisaties in staat dit te bereiken door te zorgen voor:
- AI-pijplijnen blijven verspreid over teams en werklasten
- Het oost-westverkeer binnen Kubernetes wordt gecontroleerd en waarneembaar
- Runtimegedrag binnen containers wordt gemonitord en begrepen
- Agentmodellen en interacties worden beschermd tegen opkomende AI-specifieke bedreigingen
Wanneer deze elementen samen worden ontworpen, krijgen organisaties het vertrouwen om AI-initiatieven op te schalen over afdelingen, applicaties en bedrijfseenheden heen.
De toekomst van verantwoorde AI-operaties
Cisco Secure AI Factory met NVIDIA is een blauwdruk voor de toekomst van zakelijke AI. Het brengt prestaties, data-intelligentie, cloud-native operaties en AI-native beveiliging samen in een uniform bedrijfsmodel.
Organisaties hoeven niet langer te kiezen tussen snelheid en veiligheid. Ze kunnen innovatieve en betrouwbare AI-systemen inzetten, waardoor ze van experimentele projecten kunnen overstappen naar productie-AI-diensten die een echte zakelijke impact hebben.
Als u VAST Forward 2026 bijwoont, nodigen wij u uit om deze oplossing uit de eerste hand te ervaren en te ontdekken wat het betekent om AI-systemen te bouwen die vanaf dag één zijn ontworpen voor productie.








