
Bedrijven zetten gedurfde stappen richting kunstmatige intelligentie, en Cisco AI POD’s bieden een krachtige, vooraf gevalideerde basis voor het op grote schaal inzetten van AI-infrastructuur. Ze brengen rekenkracht, opslag en netwerken samen in een modulair ontwerp dat de aanschaf en implementatie vereenvoudigt. De implementatie van hardware is echter nog maar het begin. De volgende cruciale stap is om deze krachtige infrastructuur bruikbaar te maken als een service.
Dit is waar Rafay Cisco AI POD’s integreert. Rafay’s GPU Platform as a Service (PaaS) voegt de kritische verbruikslaag toe, waardoor hardware wordt getransformeerd in een zelfbedienings, beheerde GPU-cloud. Samen stellen Cisco en Rafay organisaties in staat om AI sneller te implementeren door veilige toegang voor meerdere tenants, gestandaardiseerde werklast-SKU’s en op beleid gebaseerd beheer aan te bieden.
In dit bericht wordt onderzocht hoe deze gezamenlijke oplossing ruwe GPU-kracht omzet in een productieklaar AI-platform, waardoor zelfbediening voor ontwikkelaars mogelijk wordt gemaakt terwijl de controle op bedrijfsniveau behouden blijft.
Van infrastructuur tot consumptie: de uitdaging van het platform
Organisaties hebben de investeringen in de AI-infrastructuur versneld door platforms als Cisco AI POD in te zetten met de nieuwste NVIDIA-hardware om generatieve AI, Retrieval-Augmented Generation (RAG) en inferentie op schaal mogelijk te maken. Naarmate de adoptie groeit, ontstaat er een nieuwe uitdaging: hoe kunnen meerdere teams deze gedeelde infrastructuur veilig en efficiënt gebruiken.
Platformteams moeten de toegang verdelen over verschillende groepen, elk met unieke behoeften en beveiligingsvereisten. Zonder een gestandaardiseerd consumptieniveau leidt dit tot verschillende problemen:
– Onderbenutte GPU’s: Industriebenchmarks melden dat de gemiddelde GPU-gebruiksgraad vaak onder de 30% daalt. Dit komt deels doordat de AI-workloads ‘burst’ zijn en de meeste omgevingen niet over de mechanismen beschikken om GPU-bronnen efficiënt te splitsen en te delen. Wanneer dure GPU’s inactief zijn, betekent dit aanzienlijke opportuniteitskosten.
– Handmatige inrichting: Platformteams vertrouwen vaak op handmatige configuraties, ad-hocscripts en servicetickets om de toegang te beheren. Deze workflows vertragen de levering, introduceren inconsistenties en maken het moeilijk om governance af te dwingen.
– In silo opgeslagen bronnen: Zonder een uniform platform is de GPU-infrastructuur vaak geïsoleerd van het team, waardoor het delen wordt beperkt en een holistisch beeld van gebruik en kosten wordt voorkomen. Ontwikkelaars en onderzoekers moeten door complexe interne processen navigeren om hun werk gedaan te krijgen.
Om dit probleem op te lossen moeten bedrijven hun GPU-infrastructuur als een service beheren, wat betekent dat deze gedeelde bronnen, multitenant-isolatie en geautomatiseerde beleidshandhaving kan ondersteunen.
De gezamenlijke oplossing: Cisco AI POD + Rafay GPU PaaS
Cisco en Rafay hebben samengewerkt om een volledig gevalideerde, modulaire GPU-cloudarchitectuur te leveren. Deze oplossing combineert Cisco’s beste AI POD-infrastructuur met Rafay’s GPU Platform as a Service, waardoor GPU-hardware wordt getransformeerd in een veilige, self-service, multi-tenant cloud.
– POD AI Cisco zorgen voor rekenkracht, infrastructuur, opslag en een vooraf gevalideerd ontwerp. Ze zijn gebouwd op Cisco Validated Designs (CVD) en integreren Cisco UCS-platforms van de volgende generatie (zoals de C885A M8-server) en de nieuwste NVIDIA GPU’s om de gehele AI-levenscyclus aan te drijven.
– Rafay GPUPaaS biedt orkestratie, beleidshandhaving en een abstractielaag voor ontwikkelaars. Transformeer standaardhardware in een gebruiksvriendelijke GPU-cloud voor productiedoeleinden.
Deze gecombineerde architectuur stelt organisaties in staat snel GPU-clouds te lanceren en te beheren met full-stack orkestratie, declaratieve SKU-inrichting en geïntegreerde kostenattributie.
Selfservice voor ontwikkelaars via een samengestelde catalogus
De kern van Rafay’s platform is ALS-ONDERZOEKeen speciaal gebouwd catalogussysteem waarmee platformteams AI-ready infrastructuur en applicaties kunnen leveren als herbruikbare SKU’s.
Elke SKU is een modulaire abstractie die het volgende groepeert:
– Berekeningsopstelling: GPU/MIG-profielen, CPU, geheugen en opslag.
– Toepassingsstapel: Vooraf geïntegreerde tools zoals vLLM, Triton of Jupyter Notebooks.
– Beleidscontroles: Time-to-Live (TTL), RBAC, multi-tenancy en quota’s.
– Metagegevens voor facturering: Gebruikseenheden en kostenattributie.
Ontwikkelaars hebben direct toegang tot GPU-omgevingen via een selfserviceportal (GUI, API of CLI) zonder dat ze supporttickets hoeven in te dienen. Een datawetenschapper kan bijvoorbeeld een SKU ‘H100-Inference-vLLM’ selecteren, die automatisch een specifieke GPU-sectie inricht, een beveiligde container implementeert en een TTL van 48 uur afdwingt. Dit stroomlijnt de workflows en zorgt ervoor dat best practices op het gebied van beveiliging consistent worden toegepast.
Veilige multi-tenancy en governance
Het delen van dure GPU-bronnen vereist strikte isolatie en beheer. Rafay biedt native, veilige multi-tenancy waarmee teams veilig infrastructuur kunnen delen zonder interferentie.
Belangrijke beveiligingscontroles worden automatisch toegepast:
– Hiërarchische RBAC: Definieert machtigingen en toegangsbereik voor tenants, projecten en werkruimten.
– Isolatie van naamruimte: Zorgt ervoor dat werklasten worden gescheiden op cluster- en netwerkniveau.
– Resourcequota: Voorkomt dat een enkel team of een bepaalde taak middelen monopoliseert.
– Gecentraliseerde auditregisters: Biedt een compleet audittraject van gebruikersacties voor compliance.
Dankzij deze ingebouwde beveiligingen kunnen platformteams volledig overzicht en controle behouden, terwijl ontwikkelaars de vrijheid krijgen die ze nodig hebben om te innoveren.
Compleet GPU-beheer en zichtbaarheid
Om de ROI te maximaliseren, moet u weten hoe uw GPU’s worden gebruikt. Rafay biedt end-to-end zichtbaarheid, metingen en kostenattributie, op maat gemaakt voor omgevingen met meerdere tenants.
Platformteams kunnen declaratieve ontwerpen gebruiken om GPU-operatorconfiguraties en segmenteringsstrategieën (zoals MIG) over clusters heen te standaardiseren. Multi-tenant dashboards bieden gedetailleerd inzicht in:
– GPU-inventaris en -toewijzing
– SKU-gebruikspatronen
– Activiteit op instantieniveau en gebruikersattributie
– Gezondheidsstatus en uptimetrends
Een API voor factureringsstatistieken verzamelt gebruiksgegevens, berekent factureerbare berekeningen en genereert controleerbare rapporten, waardoor terugboekingen en financiële verantwoording mogelijk zijn.
Wie profiteert van een uniforme GPU-cloud?
Deze gezamenlijk gevalideerde oplossing is ontworpen voor een breed scala aan klanten die de GPU-infrastructuur moeten operationeel maken met beveiliging, snelheid en schaalbaarheid.
– Zakelijke IT-teams: Profiteer van federatieve selfservice, handhaving van quota en gecentraliseerde zichtbaarheid. Dit vermindert duplicatie van de infrastructuur en verankert governance in de dagelijkse bedrijfsvoering.
– Soevereine en publieke organisaties: Voldoe aan de nalevingsbehoeften in air-gapped omgevingen met veilige multi-tenancy, beleidshandhaving en gecentraliseerde auditlogboekregistratie.
– Cloud- en beheerde serviceproviders: Genereer inkomsten uit de GPU-infrastructuur met een white-label multitenantplatform dat geautomatiseerde tenant-onboarding en geïntegreerde terugboekingsmeting omvat.
– Bestaande Cisco-klanten: Vergroot de ROI van huidige UCS-implementaties door GPU-orkestratie toe te voegen als een naadloze overlay zonder dat een nieuwe architectuur nodig is.
– Greenfield AI-bouwers: Begin opnieuw met een vooraf gevalideerde, volledig geïntegreerde oplossing die de tijd tussen de levering en operationele AI-services verkort van maanden naar weken.
Zorg dat uw AI-infrastructuur vandaag nog operationeel is
Door Cisco’s gevalideerde AI-infrastructuur te koppelen aan Rafay’s PaaS GPU-controlevlak kunnen organisaties GPU-systemen transformeren in volledig beheerde interne platforms. Het resultaat is een op consumptie gerichte architectuur waarin ontwikkelaars zelfbedieningstoegang krijgen, operators quota’s afdwingen en het verbruik monitoren, en het bedrijf de waarde van zijn AI-investeringen maximaliseert.
Deze architectuur biedt een duidelijk pad voorwaarts: bied GPU-infrastructuur als een service, maak veilige en compatibele multitenancy mogelijk en maak het verbruik vanaf dag één voorspelbaar en kostenneutraal.
Neem deel aan ons volgende webinar om deze krachtige oplossing in actie te zien. Experts van Cisco en Rafay zullen demonstreren hoe u uw GPU-infrastructuur kunt transformeren in een productieklare AI-service.
Live webinars: van AI POD’s tot de GPU Cloud
21 oktober 2025 om 8.00 uur PST / 15.00 uur GMT
Wij willen graag weten wat u ervan vindt. Stel een vraag, reageer hieronder en blijf in contact met #CiscoPartners op sociale media!
Facebook door Cisco Partners | @CiscoPartners | Cisco LinkedIn-partners
BRON