De lancering van Cisco AI Defense vorig jaar was een belangrijke mijlpaal in de missie om de veilige adoptie van kunstmatige intelligentie mogelijk te maken. Het was de eerste allesomvattende AI-beveiligingsoplossing in de sector, die centraal inzicht bood in AI-middelen, robuuste algoritmische red teaming voor modellen en runtime-beveiliging voor AI-toepassingen.
De snelle verspreiding van AI-middelen heeft geleid tot een discussie over de risico’s die aan de implementatie ervan verbonden zijn. Onlangs zijn updates aangekondigd voor AI Defense om agentrisico’s aan te pakken met functies zoals MCP-scannen, agent red teaming en agent-specifieke vangrails.
De bredere gemeenschap van AI-ontwikkelaars staat voor de uitdaging van het proactief beheren van agentrisico’s. Voorspellen hoe een agent zich zal gedragen is moeilijk, vooral omdat tegenstanders verschillende aanvallen gebruiken of tools en bronnen proberen te misbruiken.
Om deze uitdaging aan te gaan, introduceert Cisco AI Defense: Explorer-editie, een selfservice-oplossing die algoritmische red teaming-mogelijkheden biedt zonder kosten vooraf voor gebruikers.
De Explorer-editie van AI Defense biedt mogelijkheden zoals het testen van de veiligheidsuitlijning van modellen, het simuleren van interacties met agenten en het begrijpen en personaliseren van AI-risicobeoordelingen. Gebruikers kunnen nu profiteren van algoritmische red teaming om de veiligheid en beveiliging van hun AI-toepassingen te verbeteren.
Met Cisco AI Defense: Explorer-editie kunnen gebruikers de prestaties van hun modellen evalueren en inzicht krijgen in verschillende risicogebieden. Deze selfservice-oplossing maakt het gemakkelijk om agentrisico’s te beheren en te communiceren met stakeholders in de AI-gemeenschap.
Begin vandaag nog met het verkennen van de mogelijkheden van Cisco AI Defense: Explorer-editie en bescherm uw AI-toepassingen tegen potentiële bedreigingen.
BRON








