Dinsdag verschenen er twee verhalen over Claude’s producer Anthropic, die, alles bij elkaar genomen, ongetwijfeld een huiveringwekkend beeld schetsen. Ten eerste oefent de Amerikaanse minister van Defensie Pete Hegseth naar verluidt druk uit op Anthropic om zijn AI-onderpand in te leveren en het leger onbelemmerde toegang te geven tot zijn Claude AI-chatbot. Het bedrijf koos er vervolgens voor om op dezelfde dag dat het Hegseth-nieuws bekend werd, zijn kernverplichtingen op het gebied van veiligheid op te geven.
Anthropic zei dinsdag dat het zijn Responsible Scaling Policy (RSP) aanpast om de veiligheidsbarrières te verlagen. Tot nu toe was de belangrijkste belofte van het bedrijf het stoppen met het trainen van nieuwe AI-modellen, tenzij er vooraf specifieke veiligheidsrichtlijnen kunnen worden gegarandeerd. Dit beleid, dat moeilijke obstakels opwierp om de ontwikkeling een halt toe te roepen, was een belangrijk onderdeel van Anthropic’s pitch voor bedrijven en consumenten.
“Twee en een half jaar later is onze eerlijke inschatting dat sommige delen van deze theorie van verandering zijn uitgespeeld zoals we hadden gehoopt, maar andere niet”, schreef Anthropic. Nu benadert het bijgewerkte beleid de veiligheid relatief, in plaats van met harde rode lijnen.
Antropische citaten in een interview met Tijd lijkt redelijk genoeg in een vacuüm. “We waren van mening dat het niemand zou helpen om te stoppen met het trainen van AI-modellen”, zegt Jared Kaplan, Chief Science Officer van Anthropic. Tijd. “We dachten niet echt dat het, gezien de snelle vooruitgang van de kunstmatige intelligentie, zinvol was om eenzijdige toezeggingen te doen… als de concurrentie voorop zou lopen.”
Anthropic CEO Dario Amodei (Foto door David Dee Delgado/Getty Images voor The New York Times) (David Dee Delgado via Getty Images)
Maar je zou deze citaten ook kunnen lezen als het nieuwste voorbeeld van hoe de ethiek van een startup steeds grijzer wordt naarmate de waardering stijgt. (Herinner je je de oude ‘Wees niet kwaadaardig’-mantra van Google die het later uit de gedragscode verwijderde?) De nieuwste releases van Claude hebben veel lof gekregen, vooral op het gebied van programmeren. In februari haalde Anthropic $30 miljard aan nieuwe investeringen op. Het heeft nu een waardering van $380 miljard. (Over de Kaplan-referenties van de concurrentie gesproken: rivaliserende OpenAI wordt momenteel gewaardeerd op meer dan $850 miljard.)
In plaats van de eerdere waarschuwingen van Anthropic zullen nieuwe “Risicorapporten” en “Border Security Roadmaps” worden geïmplementeerd. Deze openbaarmakingsmodellen zijn ontworpen om transparantie aan het publiek te bieden in plaats van die harde lijnen in de zand.
Anthropic zegt dat de verandering werd ingegeven door een “collectief actieprobleem” dat voortkwam uit het competitieve AI-landschap en de anti-regelgevende aanpak van de VS. “Als één AI-ontwikkelaar de ontwikkeling onderbreekt om beveiligingsmaatregelen te implementeren, terwijl anderen doorgaan met het trainen en inzetten van AI-systemen zonder sterke maatregelen, kan dit resulteren in een minder veilige wereld”, luidt de nieuwe RSP. “Ontwikkelaars met de zwakste waarborgen zouden het tempo bepalen, en verantwoordelijke ontwikkelaars zouden het vermogen verliezen om beveiligingsonderzoek te doen en het algemeen nut te bevorderen.”

Minister van Defensie Pete Hegseth (foto door AAron Ontiveroz/The Denver Post) (AAron Ontiveroz via Getty Images)
Noch de aankondiging van Anthropic, noch de Tijd uitsluitend over de olifant in de kamer: de drukcampagne van het Pentagon. Op dinsdag, Axios meldde dat Hegseth tegen Anthropic CEO Dario Amodei vertelde dat het bedrijf tot vrijdag de tijd heeft om het leger onbeperkte toegang te geven tot zijn AI-model, anders worden er sancties opgelegd. Het bedrijf heeft naar verluidt aangeboden zijn gebruiksbeleid voor het Pentagon over te nemen. Hij zou echter niet toestaan dat zijn model wordt gebruikt voor massale surveillance van Amerikanen of voor wapens die vuren zonder menselijke tussenkomst.
Als Anthropic niet toegeeft, zeggen experts dat juridische stappen de beste manier van handelen zijn.
Maar zullen de voorgestelde sancties van het Pentagon voldoende zijn om een winstgerichte startup af te schrikken om aan de regels te voldoen? De dreigementen van Hegseth omvatten naar verluidt een beroep op de Defense Production Act, die de president de bevoegdheid geeft om particuliere bedrijven te bevelen prioriteit te geven aan bepaalde contracten in naam van de nationale defensie. Het leger zou ook het contract met Anthropic kunnen beëindigen en dit als een risico voor de toeleveringsketen kunnen bestempelen. Dit zou andere bedrijven die met het Pentagon samenwerken, dwingen te verklaren dat Claude niet in hun workflows is opgenomen.
Claude is op dit moment het enige AI-model dat wordt gebruikt voor het meest gevoelige werk van het leger. “De enige reden dat we nog steeds met deze mensen praten is dat we ze nodig hebben, en wel nu,” zei een defensiefunctionaris aan Axios. “Het probleem voor deze kinderen is dat ze zo goed zijn.” Claude werd naar verluidt gebruikt bij de inval van Maduro in Venezuela, een onderwerp dat Amodei naar verluidt samen met zijn partner Palantir ter sprake bracht.
Het verhaal van het bedrijf over de nieuwe RSP bevatte reacties van een directeur van een non-profitorganisatie die zich richtte op de risico’s van AI. Chris Painter, directeur van de METR, beschreef de veranderingen als begrijpelijk en misschien wel als een slecht voorteken. “Ik hou van de nadruk op transparante risicorapportage en publiekelijk verifieerbare veiligheidsroutekaarten,” zei hij. Hij uitte echter ook zijn bezorgdheid dat een flexibeler RSP zou kunnen leiden tot een ‘kokend kikkereffect’. Met andere woorden: wanneer beveiliging een grijs gebied wordt, kan een schijnbaar eindeloze reeks rationalisaties het bedrijf op het duistere pad leiden dat het ooit gedoemd was.
Painter zei dat de nieuwe RSP aantoont dat Anthropic “gelooft dat het met zijn beveiligingsplannen in triagemodus moet gaan, omdat methoden om risico’s te beoordelen en te beperken geen gelijke tred houden met de mogelijkheden. Dit is verder bewijs dat het bedrijf niet voorbereid is op de potentiële catastrofale risico’s van AI.”
BRON






