
Softwareteams over de hele wereld vertrouwen nu op AI-codeertools om de productiviteit te verhogen en het coderen te vereenvoudigen. Echter, de beveiliging blijft achter. AI gegenereerde code mist vaak basisbescherming zoals onveilige standaardinstellingen, gebrek aan invoervalidatie, hardgecodeerde geheimen en verouderde cryptografische algoritmen. Deze zwakke plekken creëren kwetsbaarheden die gemakkelijk geïntroduceerd kunnen worden en vaak niet worden gecontroleerd.
Om deze reden heeft de industrie behoefte aan een uniforme, open en modelonafhankelijke aanpak voor het beveiligen van AI-codering. Cisco maakt nu zijn AI-gegenereerde codebeschermingsframework, genaamd Project CodeGuard, open source.
Project CodeGuard is een beveiligingsframework dat standaard veilige regels creëert in AI-coderingsworkflows. Het biedt een door de gemeenschap aangestuurde regelset, vertalers voor populaire AI-codeertools en validators om teams te helpen de beveiliging automatisch af te dwingen. Het doel is om veilige AI-codering de norm te maken, zonder de ontwikkelaars te vertragen.
Dit project is ontworpen om naadloos te integreren in de gehele levenscyclus van AI-codering. Het kan worden toegepast voor productontwerp en op specificaties gebaseerde ontwikkeling, om zo vanaf het begin veilige modellen te creëren. Tijdens de codegeneratie kunnen de regels AI-agenten helpen om beveiligingsproblemen te voorkomen en na de codegeneratie kunnen ze worden gebruikt voor codebeoordeling.
De regels van Project CodeGuard kunnen worden gebruikt om kwetsbaarheden te voorkomen en veiligheidspraktijken te handhaven tijdens het coderen. Het zorgt voor meerdere beveiligingslagen, terwijl de snelheid en productiviteit van AI-coderingstools behouden blijven.
Let op: hoewel deze regels AI-agenten naar veiligere modellen sturen, garanderen ze niet dat de uitvoer veilig is. Het blijft belangrijk om standaard veilige engineeringpraktijken toe te passen en peer review en andere beveiligingspraktijken te blijven volgen.
In de eerste versie van Project CodeGuard worden fundamentele beveiligingsregels vrijgegeven, geautomatiseerde scripts voor vertaling en documentatie voor gebruikers. De toekomstige routekaart omvat het uitbreiden van regeldekking, integratie van meer AI-coderingsplatforms en verdere automatisering van regelvalidatie.
Het project gedijt op samenwerking binnen de gemeenschap. Iedereen kan bijdragen door nieuwe regels in te dienen, vertalers te maken of feedback te delen. Bezoek de GitHub-opslagplaats om deel te nemen aan het gesprek en samen AI-ondersteund coderen veiliger te maken.
BRON