Het Amerikaanse ministerie van Defensie overweegt Anthropic, een van Amerika's toonaangevende AI-bedrijven en de maker van het Claude-taalmodel, op een zwarte lijst te plaatsen nadat het bedrijf weigerde het leger onbeperkt gebruik te laten maken van zijn technologie. Anthropic stelt dat de gebruiksbeperkingen essentieel zijn om massale surveillance te voorkomen en autonome wapens te ontwikkelen, terwijl het Pentagon naar verluidt overweegt het bedrijf aan te merken als een "risico voor de toeleveringsketen" en de banden met het ministerie van Defensie te verbreken na maandenlange, mislukte onderhandelingen.
De tot dan toe stille technologische samenwerking tussen het Amerikaanse Ministerie van Defensie en Anthropic is uitgemond in een openbaar, filosofisch en mogelijk baanbrekend conflict. De kernvraag is of een AI-bedrijf ethische grenzen mag stellen aan het gebruik van zijn technologie, of dat de overheid daarover mag beslissen. Deze ruzie roept grotere vragen op over wie de controle heeft over AI: de bedrijven die het ontwikkelen, de burgers wier vrijheden op het spel staan, of overheidsinstellingen die onbelemmerde toegang willen.

De patstelling: risico's in de toeleveringsketen en ethische grenzen
Minister van Defensie Pete Hegseth is naar verluidt "dichtbij" Het bedrijf heeft de banden met Anthropic verbroken en is bestempeld als een risico voor de toeleveringsketen – een label dat historisch gezien was voorbehouden aan buitenlandse tegenstanders – omdat Anthropic heeft geweigerd de ethische richtlijnen voor zijn AI-tools te versoepelen. Deze richtlijnen omvatten onder meer het verbod om Claude te gebruiken voor massale binnenlandse surveillance van Amerikanen en voor volledig autonome wapens die zonder menselijke tussenkomst kunnen vuren.
Het conflict is niet hypothetisch; het Pentagon dringt er bij vier toonaangevende AI-aanbieders – OpenAI, Google, xAI en Anthropic – op aan om hun modellen te laten gebruiken voor "alle wettige doeleinden", inclusief gevoelige gebieden zoals wapenontwikkeling, inlichtingendiensten en militaire operaties. Alleen Anthropic heeft volgehouden dat sommige toepassingen buiten het bereik van AI moeten blijven, en dat standpunt heeft nu tot openlijke frustratie geleid onder hoge defensiefunctionarissen.
Het contract van Anthropic met het Pentagon, dat in juli 2025 werd toegekend en een waarde heeft van maximaal 200 miljoen dollar, maakt deel uit van een bredere inspanning van het Amerikaanse leger om geavanceerde AI-technologie te integreren in defensieprocessen. Claude was het eerste model dat werd goedgekeurd voor gebruik in geclassificeerde militaire netwerken en is nog steeds het enige dergelijke systeem dat wordt ingezet voor gevoelige taken. Andere bedrijven hebben ermee ingestemd hun beveiligingsmaatregelen op te heffen voor gebruik in niet-geclassificeerde overheidsomgevingen; alleen Anthropic heeft vastgehouden aan ethische grenzen in alle contexten.
Het Pentagon betoogt dat het vooraf vaststellen van grenzen voor rechtmatig gebruik te beperkend is. Een hoge functionaris zou tegenover Axios hebben verklaard dat het onderhandelen over individuele goedkeuringen per geval onpraktisch is voor militaire planning en dat partners bereid moeten zijn om "onze militairen te helpen winnen in elk gevecht". Diezelfde functionaris waarschuwde ook dat Anthropic consequenties zou kunnen ondervinden voor verzet, wat de ernst van de patstelling weerspiegelt.
Anthropic wist niet dat de AI van Claude werd gebruikt om Maduro gevangen te nemen.
De filosofische scheidslijn in dit conflict werd duidelijker na berichten dat Claude werd gebruikt tijdens de Amerikaanse militaire operatie in januari 2026 om de Venezolaanse president Nicolás Maduro gevangen te nemen. Volgens verschillende bronnen werd Claude gebruikt via een systeem ontwikkeld door Palantir, terwijl de bepalingen van Anthropic met betrekking tot geweld en gebruiksbeleid het gebruik van hun modellen verbieden om "enige vorm van geweld te faciliteren of te bevorderen" of om wapens te ontwerpen of in te zetten. Het leger heeft de details niet bevestigd en Anthropic heeft verklaard dat het gebruik van Claude in specifieke operaties niet is besproken, en benadrukt dat hun gebruiksbeleid in alle contexten van toepassing is.
Dit laat een kloof zien tussen hoe de overheid "rechtmatig gebruik" interpreteert en hoe Anthropic ethische terughoudendheid interpreteert. Voor velen illustreert het Maduro-incident het risico dat inherent is aan het integreren van commerciële AI in militaire operaties: bedrijven beloven morele normen, maar wanneer overheden de technologie via derden inzetten, kunnen die normen worden omzeild of genegeerd.
Ethiek of efficiëntie? Anthropic houdt voet bij stuk.
In de kern is dit conflict eerder filosofisch dan louter contractueel van aard. De CEO en het management van Anthropic hebben publiekelijk gepleit voor waarborgen die burgerbewaking en ongeremde ontwikkeling van autonome wapens moeten voorkomen. Deze standpunten zijn geworteld in zorgen over burgerlijke vrijheden en de potentiële maatschappelijke schade van ongebreidelde inzet van AI. Dat standpunt vindt weerklank bij bepaalde groepen mensen – met name bij degenen die overheidsbemoeienis zien als een bedreiging voor privacy en vrijheid – en is zelfs een verzamelpunt geworden voor aanhangers die Anthropic afschilderen als principieel en het Pentagon als autoritair.
Vanuit het perspectief van het Pentagon leiden beperkingen echter tot een vertraging van innovatie en een bemoeilijking van de defensieplanning. In een tijdperk waarin concurrenten met vergelijkbare capaciteiten zich haasten om geavanceerde AI in militaire contexten toe te passen, zien functionarissen aarzeling als een operationeel risico. De drang van het Pentagon naar AI die voor "elk wettig doel" kan worden gebruikt, weerspiegelt deze urgentie, maar roept ook vragen op over civiel toezicht op het gebruik van AI in het leger.
Wat de spanning nog verhoogt, is het feit dat AI-modellen zoals Claude op grote schaal zijn geïntegreerd in de bedrijfsstructuur – naar verluidt worden ze gebruikt door acht van de tien grootste Amerikaanse bedrijven – wat betekent dat een risicoclassificatie voor de toeleveringsketen niet alleen gevolgen zou hebben voor defensierelaties, maar ook bredere commerciële ecosystemen zou kunnen beïnvloeden.
Wat we hebben geleerd van de vete tussen Anthropic en het Pentagon
Deze botsing benadrukt een breder dilemma van het AI-tijdperk: wie bepaalt hoe geavanceerde technologie wordt gebruikt zodra deze de ontwikkelingsfase voorbij is en in machtige instellingen terechtkomt? Anthropic probeert te beargumenteren dat grenzen moeten worden gesteld door de makers, die zowel de kracht als de risico's van hun tools begrijpen. Het Pentagon, belast met de nationale defensie, stelt daarentegen dat het onbelemmerd moet kunnen omgaan met de technologie die het heeft aangeschaft en ingezet.
De dieperliggende vraag is of ethische beperkingen technologie in alle toepassingsgebieden moeten volgen, of dat overheden ze in naam van de veiligheid moeten kunnen negeren. Het antwoord hierop heeft implicaties die veel verder reiken dan één enkel contract. Het raakt aan privacy, militaire autonomie, maatschappelijke verantwoordelijkheid van bedrijven en uiteindelijk aan de vraag of burgers of overheden – en zo ja, welke – de grenzen van technologie bepalen.
Tot slot
In het touwtrekken tussen Anthropic en het Pentagon zien we een cruciale vraag over onze toekomst: wiens waarden bepalen hoe krachtige instrumenten worden ingezet – die van de bedrijven die ze bouwen, die van de overheden die ze gebruiken, of die van het publiek wiens vrijheden op het spel staan?
The Expose heeft dringend uw hulp nodig…
Kunt u ons helpen om de eerlijke, betrouwbare, krachtige en waarheidsgetrouwe journalistiek van The Expose draaiende te houden?
Uw overheids- en Big Tech-organisaties
proberen The Expose het zwijgen op te leggen en uit te schakelen.
Daarom hebben we uw hulp nodig om ervoor te zorgen
wij kunnen u blijven voorzien van de
feiten die de mainstream weigert te delen.
De overheid financiert ons niet
om leugens en propaganda op hun site te publiceren
namens de Mainstream Media.
In plaats daarvan vertrouwen we uitsluitend op uw steun. Dus
steun ons alstublieft in onze inspanningen om
jij eerlijke, betrouwbare onderzoeksjournalistiek
vandaag nog. Het is veilig, snel en gemakkelijk.
Selecteer hieronder de methode die u het prettigst vindt om uw steun te betuigen.
Categorieën: US News
Nog niets over Trump lol
De Chinese Communistische Partij (CCP) zal het Pentagon een AI-systeem leveren om Amerikanen te bespioneren, zolang de CCP maar een achterdeur heeft voor...updates.
Ik weet niet of dit een integer bedrijf is of een vijand die anti-Amerikaanse krachten beschermt. Je kunt niemand meer vertrouwen. Technologie is ontworpen om alle vrijheid, privacy en soevereiniteit te vernietigen. Het is het instrument van de elite om de massa te vernietigen. En niemand kan hen stoppen behalve God zelf. Hij komt eraan.
De mensen moeten hier een einde aan maken. God heeft ons de vrijheid gegeven om te vechten en ons te verzetten tegen kwade krachten.