AI is een van de snelst groeiende technologieën in de geschiedenis en het is gemakkelijk te begrijpen waarom. We zien allemaal de waarde ervan in ons dagelijks leven. Het helpt ons bij het schrijven van e-mails, samenvatten, vergaderingen samenvatten en zelfs onze kinderen wiskunde leren. En wat we vandaag doen, is slechts een fractie van wat we over een paar jaar kunnen doen.
Ik geloof dat AI echt een positieve impact zal hebben op de samenleving en de economie. Maar net zo inspirerend en opwindend als AI is, biedt het ons ook de grootste uitdaging in de geschiedenis van IT -beveiliging. Ironisch genoeg, hoewel veiligheid in het verleden de reden was voor de vertraging in de acceptatie van technologie, zijn wij van mening dat het aannemen van de juiste benadering van beveiliging de acceptatie van AI daadwerkelijk zal versnellen.
Deze week tijdens de RSA-conferentie in San Francisco onthul ik wat AI zo’n unieke beveiligings- en uitdaging maakt. Bij Cisco hebben we een reeks innovaties gelanceerd die bedrijven helpen hun beveiligingsteams uit te rusten met de AI-tools die ze nodig hebben om hun bedrijven in dit tijdperk te beschermen.
Wat maakt AI zo moeilijk om te beveiligen?
Het begint allemaal met de modellen zelf. In tegenstelling tot traditionele apps hebben AI-toepassingen modellen (soms meer dan één) geïntegreerd in hun stack. Deze modellen zijn intrinsiek onvoorspelbaar en niet-deterministisch. Met andere woorden, voor het eerst hebben we te maken met systemen die denken, spreken en zelfstandig handelen op manieren die we niet volledig kunnen voorspellen. Dit is een keerpunt voor computerbeveiliging.
Met kunstmatige intelligentie betekent een beveiligingsinbreuk niet alleen dat iemand privégegevens steelt of een systeem uitschakelt. Nu is het de intelligente entiteit die uw bedrijf begeleidt naar een compromis. Dit betekent dat miljoenen beslissingen en lopende acties in een oogwenk kunnen worden gemanipuleerd. En omdat bedrijven AI gebruiken in de meest cruciale delen van hun organisaties, worden de risico’s alleen maar groter.
Hoe blijven we veilig in de wereld van kunstmatige intelligentie?
Bij Cisco richten we ons op het ondersteunen van beveiligingsteams en IT-leiders bij het omgaan met deze nieuwe klasse van risico’s met betrekking tot kunstmatige intelligentie. Begin dit jaar hebben we de eerste oplossing in zijn soort voor verdediging gelanceerd. Het biedt beveiligingsteams een gemeenschappelijk platform in al hun zaken waarmee ze kunnen zien waar AI wordt gebruikt, continu valideren dat de modellen niet worden aangetast en beveiligingsmaatregelen onderweg toepassen.
We hebben onlangs ook aangekondigd dat we samenwerken met NVIDIA om veilige AI-fabrieken te bieden die de rekenkracht van NVIDIA AI combineren met onze netwerktechnologie om AI-systemen op elk niveau van de stack te beschermen. En vandaag hebben we een nieuw partnerschap met diensten geïntroduceerd. Ze integreren de verdediging van kunstmatige intelligentie in hun platform om risicobeheer en governance te centraliseren, waardoor klanten gemakkelijker zichtbaarheid kunnen krijgen, kwetsbaarheden kunnen verminderen en compliant kunnen blijven. Dit zorgt ervoor dat organisaties een enkele bron van waarheid hebben voor het beheer van risico’s en AI-naleving.
Tijdens de RSA-conferentie blijven we deze week ook de volgende ontwikkelingen leveren:
- Nieuwe functies voor de agent binnen Cisco XDR: Detectie en reactie op meerdere multidello en multi-agent.
- Verbeteringen om enterprise-beveiliging uit te breiden: Splunk Soar 6.4 is GA en Splunk ES 8.1 die in juni GA wordt.
- Risicobeheer van de supply chain: Nieuwe functies om schadelijke AI-modellen te identificeren en te blokkeren voordat ze het bedrijf binnenkomen.
U kunt hier meer lezen over al deze innovaties.
Tot slot hebben we Foundation AI geïntroduceerd, een nieuw team van AI- en beveiligingsexperts gericht op het versnellen van innovatie voor beveiligingsteams. Deze aankondiging omvat de lancering van het eerste open gewichtsmodel in de sector dat specifiek is ontworpen voor beveiliging. De beveiligingsgemeenschap had behoefte aan een doorbraak in AI-modellen en we zijn verheugd dit nieuwe gebied van innovatie te openen.
Het Foundation Security Model is een model van 8 miljard parameters, Open Weight LLM, ontworpen door Scratch voor IT-beveiliging. Het model is vooraf getraind op zorgvuldig samengestelde datasets die de taal, logica en kennis van de echte wereld en workflows vastleggen waarmee beveiligingsprofessionals dagelijks werken. Het model is:
- Gebouwd voor veiligheid – 5 miljard van de 900 miljard gedistilleerde tokens;
- Gemakkelijk aanpasbaar – 8B parameters vooraf in handen van een lama-model; En iedereen kan downloaden en trainen;
- Zeer efficiënt – Het is een redeneermodel dat kan werken op 1-2 A100S versus 32+ H100;
We brengen dit model en bijbehorende tools uit als open source in een eerste stap naar de ontwikkeling van wat we Superintelligente Beveiliging noemen.
Terwijl we met de gemeenschap samenwerken, zullen we verfijnde versies van dit model ontwikkelen en autonome agenten creëren die samen met mensen zullen werken aan complexe beveiligings- en analysetaken. Het doel is om beveiliging op een geautomatiseerde schaal te brengen en de slechte actoren een stap voor te blijven.
U kunt meer lezen over Foundation AI en de missie ervan hier.
Veiligheid is een teamsport
We hebben ervoor gekozen om het Foundation AI-beveiligingsmodel open te stellen, omdat de echte vijand in computerbeveiliging de tegenstander is die onze systemen probeert te misbruiken. Ik geloof dat AI de grootste uitdaging vormt voor de beveiliging in de geschiedenis. Dit betekent ongetwijfeld dat we als sector moeten samenwerken om ervoor te zorgen dat de beveiliging op dezelfde snelheid schaalt als de snel veranderende wereld van AI.
Jee
Deel:








