Ruzie tussen het Pentagon en een AI-bedrijf: waarvoor mag je AI inzetten?

Waar ligt de rode lijn voor het inzetten van AI in het leger? De Amerikaanse minister Hegseth van Defensie en AI-bedrijf Anthropic hebben er een hoogoplopend conflict over.
Anthropic wil niet dat met zijn AI-model massa-surveillances of autonome wapensystemen worden gemaakt. Minister Hegseth wil juist geen beperkingen krijgen opgelegd. Net als OpenAI, de maker van ChatGPT, heeft Anthropic een eigen chatbot ontwikkeld. Het bedrijf is minder bekend bij het grote publiek, maar gooit hoge ogen in de techwereld.
De kwestie draait om een deal die Anthropic en het ministerie vorig jaar sloten, waar zo'n 200 miljoen dollar mee was gemoeid. Het bedrijf kondigde "een nieuw hoofdstuk" aan, stond in een persbericht.
Van dat optimisme is weinig over. Begin dit jaar ontstond er discussie over die "verantwoorde AI", zoals Anthropic het omschrijft. Hegseth stuurde een memo waarin stond dat de AI-toepassingen voor alles gebruikt mogen worden, zolang het binnen de wet past.
AI over leven of dood
Het memo leidde tot wrevel bij Anthropic dat de "verantwoorde AI-afspraken" in één pennenstreek ziet verdwijnen. Anthropic wil koste wat kost voorkomen dat het AI-model gebruikt wordt voor massa-surveillance, het grootschalig in de gaten houden van Amerikanen. Ook wil het niet bijdragen aan een autonoom wapensysteem, een techniek waardoor AI beslist over leven of dood.
Anthropic heeft zich gepositioneerd als buitenbeentje binnen de AI-sector. Anthropic-topman Dario Amodei was een van de ontwerpers achter OpenAI, maar vertrok omdat hij het niet eens was met de koers van het bedrijf. Met zijn zus richtte hij daarom in 2021 Anthropic op.
Ontvoering Maduro
'Verantwoord' is het toverwoord. Amodei wil nieuwe techniek niet zomaar lanceren, zonder te weten wat de gevolgen zijn. Hij waarschuwde begin dit jaar in een essay dat overheden AI kunnen inzetten tegen burgers.
Toch sloot Amodei's bedrijf vorig jaar het contract met het Pentagon. Als enige AI-bedrijf voldoet het aan de hoogste veiligheidseisen, schrijft techsite The Verge. Volgens bronnen van The Wall Street Journal is de technologie daarnaast gebruikt bij de operatie om de Venezolaanse president Maduro te ontvoeren. Hoe precies, is nog altijd geheim.
AI kan op allerlei manieren ingezet worden, vertelt Paul Verhagen, technologie en geopolitiek-expert bij het Den Haag Centrum voor Strategische Studies. "Tijdens de operatie rondom Maduro kan AI bijvoorbeeld ingezet zijn om sociale media te analyseren om te kijken of de operatie nog geheim is."
Rare dynamiek
Hegseth lijkt geen tegenspraak te dulden. Hij wil voor vrijdag weten of Anthropic meegaat in de eisen of niet. Als het AI-bedrijf dat niet doet, gaat Hegseth het contract ontbinden. Ook dreigt hij om het bedrijf als supply chain risk aan te merken.
Dat zou betekenen dat producten van Anthropic niet meer gebruikt mogen worden door het leger. Ook andere bedrijven die gebruikmaken van de technologie van Anthropic en diensten leveren aan het Pentagon moeten hier dan mee stoppen.
Volgens Verhagen wordt dat label van de supply chain risk bijna nooit gebruikt voor Amerikaanse bedrijven. "Het soort bedrijven waar je dit op zou toepassen, zijn bedrijven die bijvoorbeeld gelieerd zijn aan de Chinese staat of Russische staatsoliemaatschappijen", zegt hij. "Aan de kant van het Pentagon krijg je ook een rare dynamiek: als we de technologie willen versnellen, waarom ben je dan je eigen bedrijven aan het uitbannen?"