Vandaag markeert een belangrijke stap voorwaarts in de toewijding van Cisco aan cybersecurity op basis van kunstmatige intelligentie. Na de recente release van Foundation-Sec-8b, ons cybersecurity safety model, kondigt het AI-team van de Cisco Foundation enthousiast de privévoorvertoning aan van Llam-3.1-Foundationai-Securityllm-8b-Riga-REASONING (Foundation-SEC-8B-CREASTING), een parameter van 8 miljard biljoen grote taalmodellen (LLM) voor complexe beveiligingsfunctionaliteit.
Foundation-SEC-8B-REASONING maakt geavanceerde analyse en besluitvormingsprocessen mogelijk die nodig zijn in beveiligingsworkflows. Dit model overtreft de traditionele modellen (SOA) en zal tegen het einde van de zomer openbaar beschikbaar worden gesteld.
Beveiligingsoperaties naar een hoger niveau tillen met slimmere AI
In cybersecurity is effectieve analyse complex en gelaagd. Dit omvat het identificeren van kwetsbaarheden, het traceren van aanvalspaden, het evalueren van verdedigingsmechanismen, het begrijpen van de organisatorische veiligheidshouding en het nauwkeurig meten van risico’s. Traditionele beveiligingstools zijn vaak gebaseerd op rigide regels en missen de adaptieve redenering die nodig is om opkomende bedreigingen te identificeren en te analyseren. Hoewel generieke redenering bestaat, is hun vermogen om complexe beveiligingsproblemen aan te pakken beperkt.
Redeneringsmodellen zijn nu toegankelijker dan ooit, deels dankzij vooruitgang zoals getoond door modellen zoals Deepseek-R1. Beveiligingstoepassingen vereisen echter robuuste en specifieke domeinredenering om de verspreide databases van registers, code en bedreigingsinformatie met elkaar te verbinden. Een redeneringsmodel voor beveiliging zou ideaal zijn voor gebruik door cybersecurityprofessionals, IT-beveiligingsteams, beveiligingsonderzoekers en ontwikkelaars die beveiligingsfuncties in hun applicaties integreren en behoefte hebben aan complexe redenering.
Dit maakt geavanceerde redenering een essentiële bouwsteen, geen optionele functie, voor LLM’s die zijn afgestemd op beveiliging om complexe beveiligingsvraagstukken effectief te begrijpen, logisch te redeneren en verschillende fasen van IT-beveiligingsdomeinen te doorlopen.
Introductie van Foundation-SEC-8B-Redenering
Volgens de Cisco 2025 Computer Security Index heeft 86% van de wereldwijde cybersecurityverantwoordelijken in de afgelopen 12 maanden cybersecurityincidenten ervaren gerelateerd aan kunstmatige intelligentie, wat de dringende behoefte benadrukt aan geavanceerde beveiligingsoplossingen ondersteund door AI. Het AI Foundation-team, bestaande uit AI- en beveiligingsexperts, is toegewijd aan het aanpakken van deze behoefte door geavanceerde technologie te ontwikkelen om fundamentele beveiligingsproblemen aan te pakken met nieuwe open source-tools.
Foundation-SEC-8B-Redenering is ontwikkeld door Foundation-SEC-8B. Het Foundation-SEC-8B-model, dat het LLAMA 3.1 8B-framework en de eerste versie van de AI Foundation gebruikt, is een basismodel voor algemene beveiligingsachtergronden om redenering voor beveiligingstoepassingen te verbeteren. Het model is ontworpen om te dienen als een tool voor beveiligingsoperaties die logische redenering vereisen, zoals het modelleren van bedreigingen, het analyseren van aanvalspatronen, risicobeoordeling en het evalueren van de beveiligingsarchitectuur.
Foundation-SEC-8B-Redenering kan direct worden toegepast op verschillende cybersecurity-redeneertaken, waaronder:
- Systeem- en configuratieanalyse: Overweging van systeeminstellingen en configuraties om kwetsbaarheden te identificeren en de beveiligingshouding te verbeteren.
- Mapping van tegenstrijdig gedrag: Correlatie van threat intelligence met aanvallers tactieken om tegenstrijdig gedrag te voorspellen en te begrijpen.
- Threat detection en analyse: Analyse van logs en verkeer om schadelijke patronen te identificeren en de effectiviteit van threat hunting te verbeteren.
- Access en privilege management: Evaluatie van autorisaties en rollen om privileged accounts te ontdekken en het risico van misbruik te verminderen.
- Contextuele verrijking en onderzoek: Leveren van contextuele inzichten om onderzoek te vergemakkelijken en snelle incidentrespons te ondersteunen.
Om te zien hoe Foundation-SEC-8B-Redenering kan worden toegepast in real-world cybersecurity-workflows, bekijk de use case cookbook op onze openbare GitHub-repository. Deze praktische handleidingen bieden concrete voorbeelden om teams op weg te helpen, nieuwe toepassingen te inspireren en de ontwikkeling bovenop het model te versnellen.
Toewijding aan openheid met prioriteit voor privacy en controle
Als Foundation-SEC-8B zal Foundation-SEC-8B-Redenering worden vrijgegeven als een open source-model. Met deze toewijding aan openheid kan de IT-beveiligingsgemeenschap:
- Innovatie stimuleren: Samenwerking tussen beveiligingsexperts aanmoedigen om cutting-edge oplossingen te ontwikkelen.
- Aanpassing en maatwerk: Het model aanpassen aan specifieke behoeften om perfect te passen bij unieke beveiligingsuitdagingen.
- Distributie versnellen: Een krachtige tool bieden voor beveiligingsteams om de verdediging te versterken, vermoeidheid te verminderen en duidelijkheid te brengen in complexe threat environments.
- Distributiebeheer: Uitvoeren van on-premises modellen, in air-gapped omgevingen of binnen beveiligde cloud enclaves.
- Vertrouwen in naleving: Lokale gevoelige gegevens behouden; Geen risico op gedwongen deducties of delen met derden.
Foundation-SEC-8B-Redenering stelt organisaties in staat om AI-gebaseerde beveiligingstools te bouwen met sterke redeneervaardigheden die lokaal kunnen worden ingezet, waardoor de afhankelijkheid van cloud-gebaseerde AI-diensten wordt verminderd en de prestaties op het gebied van redeneertaken worden gehandhaafd.
Ons redeneringsmodel voor gespecialiseerde IT-beveiliging toont aan dat kleine open source-modellen beter kunnen presteren dan grotere modellen voor algemeen gebruik. Ons redeneringsmodel maakt gebruik van berekeningstijd om hogere precisieberekeningen te produceren dan grotere modellen zonder redenering.
Wij geloven dat open source de beste aanpak is voor de ontwikkeling van krachtige, veilige en geteste IT-beveiliging. Daarom zullen we ons beveiligingsmodel tegen het einde van de zomer openbaar beschikbaar stellen.
Vooruitkijkend
Foundation-SEC-8B-Redenering is de volgende stap in de ontwikkeling van op maat gemaakte hulpsystemen; Tools die niet alleen gegevens verwerken, maar echt inzicht hebben in het beveiligingsdomein. De aankomende openbare release van dit cybersecurity redeneringsmodel benadrukt de toewijding van Cisco om essentiële infrastructuur te bieden waar cybersecurityteams direct van kunnen profiteren.
In de komende maanden zal de AI Foundation van Cisco het volgende publiceren:
- Een open source-versie van Foundation-SEC-8B-Redenering, een cybersecurity redeneringsmodel dat verklaring en diepgaande analyse toevoegt aan complexe beveiligingsworkflows.
- Foundation-SEC-8B-RAW als onderdeel van de NVIDIA NIM-modellen om distributie en schaalbaarheid te vereenvoudigen.
- Een nieuwe referentiesuite die is ontworpen om AI-modellen te evalueren voor beveiligingsactiviteiten die in de echte wereld worden gedefinieerd.
- Verdere tools en componenten die teams helpen bij het ontwikkelen, implementeren en integreren van AI-beveiligingselementen in hun beveiligingsstack.
Als u geïnteresseerd bent om met ons samen te werken aan de toekomst van AI-gebaseerde IT-beveiliging, nodigen wij u uit om vroegtijdige toegang aan te vragen tot Foundation-SEC-8B-Redenering.
Bezoek onze website voor meer informatie over het AI Foundation-team. En om het eerder uitgebrachte Foundation-model te verkennen, is Foundation-SEC-8B beschikbaar om te downloaden op Hugging Face.
We horen graag uw mening! Stel vragen en blijf in contact met Cisco Security op sociale media.
Cisco Security Social Media
LinkedIn
Facebook
Instagram
X
Deel:








