VS beschouwt Anthropic als een risico voor de toeleveringsketen in conflict over militair gebruik van AI
VS verklaart Anthropic een risico in de toeleveringsketen in conflict over militair gebruik van AI
De ongekende stap van de Trump-administratie tegen Anthropic met betrekking tot AI-beveiligingen dwingt overheidscontractoren om hun gebruik van de chatbot Claude van het bedrijf te heroverwegen.
De Amerikaanse regering zet haar dreiging door om het kunstmatige intelligentie (AI) bedrijf Anthropic aan te wijzen als een risico in de toeleveringsketen. Dit ongekende besluit kan andere overheidscontractoren dwingen om te stoppen met het gebruik van de AI-chatbot Claude.
Het Pentagon verklaarde donderdag dat het “officieel de leiding van Anthropic heeft geïnformeerd dat het bedrijf en zijn producten als een risico in de toeleveringsketen worden beschouwd, met onmiddellijke ingang.” Deze beslissing lijkt de mogelijkheid voor verdere onderhandelingen met Anthropic te sluiten, bijna een week nadat president Donald Trump en defensieminister Pete Hegseth het bedrijf beschuldigden van het in gevaar brengen van de nationale veiligheid.
Trump en Hegseth kondigden vorige week vrijdag een reeks dreigende sancties aan, op de vooravond van de oorlog met Iran, nadat CEO Dario Amodei van Anthropic weigerde zich terug te trekken vanwege zorgen dat de producten van het bedrijf konden worden gebruikt voor massale surveillance van Amerikanen of autonome wapens.
Amodei verklaarde donderdag dat “we niet geloven dat deze actie juridisch houdbaar is, en we zien geen andere keuze dan deze aan te vechten in de rechtbank.” Het Pentagon verklaarde dat “dit gaat over één fundamenteel principe: het leger moet technologie kunnen gebruiken voor alle wettelijke doeleinden.” Het voegde eraan toe: “Het leger zal niet toestaan dat een leverancier zich in de commandoketen mengt door het wettelijke gebruik van een kritieke mogelijkheid te beperken en onze strijdkrachten in gevaar te brengen.”
Amodei weerlegde dat de beperkte uitzonderingen die Anthropic zocht om surveillance en autonome wapens te beperken “betrekking hebben op gebruiksgebieden op hoog niveau, en niet op operationele besluitvorming.” Hij voegde eraan toe dat er “productieve gesprekken” met het Pentagon waren over de vraag of het Claude kon blijven gebruiken of een “vlotte overgang” kon realiseren als er geen akkoord werd bereikt. Trump gaf het leger zes maanden om Claude uit te faseren, dat al breed is geïntegreerd in militaire en nationale beveiligingsplatforms. Amodei zei dat het een prioriteit is om ervoor te zorgen dat strijdkrachten niet worden “beroofd van belangrijke tools tijdens grote gevechtsoperaties.”
Sommige militaire contractoren sneden al de banden met Anthropic, een opkomende ster in de tech-industrie die Claude aan verschillende bedrijven en overheidsinstanties verkoopt. Het defensiebedrijf Lockheed Martin verklaarde dat het “de richtlijnen van de president en het Ministerie van Oorlog zal volgen” en zal kijken naar andere aanbieders van grote taalmodellen. “We verwachten minimale impact, aangezien Lockheed Martin niet afhankelijk is van een enkele LLM-leverancier voor een deel van ons werk,” aldus het bedrijf.
Hoe het Amerikaanse Ministerie van Defensie de reikwijdte van de risicobepaling zal interpreteren, is onduidelijk. Amodei zei dat een melding die Anthropic woensdag van het Pentagon ontving, aantoont dat deze alleen van toepassing is op het gebruik van Claude door klanten als een “direct onderdeel van” hun militaire contracten. Microsoft zei dat zijn advocaten de regel hebben bestudeerd en dat het bedrijf “kan blijven samenwerken met Anthropic aan niet-defensie gerelateerde projecten.”
Kritiek op het besluit van het Pentagon
De beslissing van het Pentagon om een regel toe te passen die is ontworpen om toeleveringsbedreigingen van buitenlandse tegenstanders aan te pakken, werd met brede kritiek ontvangen. Federale codes hebben het risico in de toeleveringsketen gedefinieerd als een “risico dat een tegenstander een systeem kan saboteren, opzettelijk ongewenste functies kan introduceren, of anderszins kan ondermijnen” om het te verstoren, te degraderen of te bespioneren.
De Amerikaanse senator Kirsten Gillibrand, een Democraat uit New York en lid van de Senaatscommissie voor de strijdkrachten en de Senaatscommissie voor inlichtingendiensten, noemde het “een gevaarlijk misbruik van een instrument dat bedoeld is om technologie onder controle van tegenstanders aan te pakken.” “Deze roekeloze actie is kortzichtig, zelfdestructief en een geschenk voor onze tegenstanders,” zei ze in een schriftelijke verklaring donderdag.
Neil Chilson, een Republikeinse voormalig hoofdtechnoloog voor de Federal Trade Commission die nu het AI-beleid leidt bij het Abundance Institute, zei dat de beslissing er uitziet als “massale overreach die zowel de Amerikaanse AI-sector als het vermogen van het leger om de beste technologie voor de Amerikaanse strijdkrachten te verwerven, zou schaden.”
Eerder op de dag stuurde een groep voormalige defensie- en nationale veiligheidsfunctionarissen een brief naar Amerikaanse wetgevers waarin ze “ernstige zorgen” uitten over de aanwijzing. “Het gebruik van deze bevoegdheid tegen een binnenlands Amerikaans bedrijf is een diepgaande afwijking van het beoogde doel en creëert een gevaarlijk precedent,” aldus de brief van voormalige functionarissen en beleidsdeskundigen, waaronder voormalig CIA-directeur Michael Hayden en gepensioneerde leiders van de luchtmacht, het leger en de marine. Ze voegde eraan toe dat een dergelijke aanwijzing bedoeld is om “de Verenigde Staten te beschermen tegen infiltratie door buitenlandse tegenstanders — van bedrijven die loyaal zijn aan Peking of Moskou, niet van Amerikaanse innovators die transparant opereren onder de rechtsstaat. Het toepassen van dit instrument om een Amerikaanse firma te bestraffen voor het weigeren om waarborgen tegen massale binnenlandse surveillance en volledig autonome wapens te verwijderen, is een categoriefout met gevolgen die verder reiken dan dit geschil.”
Anthropic ziet stijging in consumentendownloads
Terwijl het grote partnerschappen met defensiecontractoren verliest, heeft Anthropic een toename van consumentendownloads ervaren in de afgelopen week vanwege de morele houding van het bedrijf. Meer dan een miljoen mensen registreerden zich deze week elke dag voor Claude, aldus het bedrijf, waardoor het voorbij OpenAI’s ChatGPT en Google’s Gemini kwam als de top AI-app in meer dan 20 landen in de Apple App Store.
Het geschil met het Pentagon heeft ook de bittere rivaliteit van Anthropic met OpenAI verder verdiept, die begon toen voormalige leiders van OpenAI, waaronder Amodei, Anthropic in 2021 oprichtten. Uren nadat het Pentagon Anthropic vorige week vrijdag had gestraft, kondigde OpenAI een deal aan om Anthropic effectief te vervangen door ChatGPT in geclassificeerde militaire omgevingen. OpenAI zei dat het vergelijkbare bescherming tegen binnenlandse surveillance en volledig autonome wapens zocht, maar later zijn overeenkomsten moest aanpassen, wat leidde tot de opmerking van CEO Sam Altman dat hij niet had moeten haasten met een deal die “opportunistisch en slordig leek.”
Amodei betuigde ook spijt over zijn eigen rol in die “moeilijke dag voor het bedrijf,” en zei donderdag dat hij “rechtstreeks excuses wilde aanbieden” voor een interne notitie die hij naar het personeel van Anthropic had gestuurd, waarin hij het gedrag van OpenAI aanviel en suggereerde dat Anthropic werd gestraft omdat het geen “dictatorachtige lof” aan Trump had gegeven.
