
Onze aanpak van open source
Open source kunstmatige intelligentie heeft het potentieel om ongekende technologische vooruitgang te ontsluiten. Het egaliseert het speelveld, waardoor mensen gratis toegang krijgen tot krachtige en vaak dure technologie, wat concurrentie en innovatie mogelijk maakt en hulpmiddelen voortbrengt ten behoeve van individuen, samenleving en economie. Open sourcen is geen optie; het is essentieel om de positie van Amerika te versterken als leider in technologische innovatie, economische groei en nationale veiligheid. In dit zeer competitieve wereldwijde panorama intensiveert de race om robuuste ecosystemen voor kunstmatige intelligentie te ontwikkelen, waardoor snelle innovatie en betere oplossingen worden begeleid. Door een gebalanceerde benadering van risicobeoordeling die innovatie aanmoedigt, kan de Verenigde Staten ervoor zorgen dat de ontwikkeling van AI concurrerend blijft, waardoor de transformerende voordelen van AI voor de toekomst worden gegarandeerd.
Het kader
Ons AI Frontier Framework richt zich op de meest kritieke risico’s op het gebied van bedreigingen en risico’s voor computerveiligheid door chemische en biologische wapens. Door deze gebieden prioriteit te geven, kunnen we werken aan het beschermen van de nationale veiligheid door innovatie te bevorderen. Ons framework schetst een reeks processen die we volgen om te anticiperen op en het risico te verminderen bij de ontwikkeling van kunstmatige intelligentiesystemen, zoals:
- Identificeer catastrofale resultaten om te voorkomen: Ons framework identificeert potentiële catastrofale resultaten met betrekking tot cyber-, chemische en biologische risico’s die we proberen te voorkomen. Het richt zich op het evalueren of deze catastrofale resultaten mogelijk worden gemaakt door technologische vooruitgang en identificeert in dat geval manieren om deze risico’s te verminderen.
- Bedreigingsmodelleringsoefeningen: We voeren bedreigingsmodelleringsoefeningen uit om te anticiperen hoe verschillende actoren kunnen proberen AI te misbruiken om die catastrofale resultaten te produceren, en werken indien nodig samen met externe experts. Deze oefeningen zijn essentieel voor onze resultaatgerichte aanpak.
- Risicodrempels vaststellen: We definiëren risicodrempels op basis van de mate waarin onze modellen bedreigingsscenario’s vergemakkelijken. We hebben processen om de risico’s op acceptabele niveaus te houden, inclusief het toepassen van mitigatiemaatregelen.
Onze open source-aanpak helpt ons ook om risico’s te anticiperen en beter te verminderen, omdat het ons in staat stelt te leren van de bredere onafhankelijke beoordelingen van de gemeenschap over de vaardigheden van onze modellen. Dit proces verbetert de effectiviteit en betrouwbaarheid van onze modellen en draagt bij aan een betere risicobeoordeling op het veld. Naast het beoordelen van het catastrofale risico houdt ons framework ook rekening met de voordelen van de technologie die we ontwikkelen.
Kijkend naar de toekomst
Hoewel de focus van dit framework ligt op het helpen verminderen van ernstige risico’s, is het belangrijk om te onthouden dat de belangrijkste reden waarom we deze technologieën ontwikkelen, is omdat ze het potentieel hebben om aanzienlijke voordelen voor de samenleving te bieden.
We hopen dat door het delen van onze huidige benadering van de verantwoorde ontwikkeling van geavanceerde kunstmatige intelligentiesystemen, we informatie kunnen verstrekken over onze beslissingsprocessen en het bevorderen van discussies en onderzoek om de evaluatie van AI te verbeteren, zowel wat betreft risico’s als voordelen. Aangezien geavanceerde technologie zal blijven evolueren, zullen we onze aanpak blijven verfijnen.