Volgens rapporten is Claude, het vlaggenschipproduct van Anthropic, betrokken geweest bij de militaire inval van de VS in Venezuela om de president en zijn vrouw te arresteren.
Ondanks het anti-geweldbeleid van Anthropic stelt het partnerschap van het bedrijf met Palantir Claude in staat om te worden gebruikt voor militaire operaties. Sommigen geloven dat de AI werd gebruikt voor niet-gewelddadige taken.

Een reeks nieuwe rapporten heeft onthuld dat het Amerikaanse leger het kunstmatige intelligentiemodel van Anthropic, Claude, gebruikte tijdens de risicovolle operatie om voormalig Venezolaans president Nicolás Maduro te arresteren.
De missie, bekend als "Operation Resolve", vond plaats in begin januari 2026 en resulteerde in de arrestatie van Maduro en zijn vrouw, Cilia Flores, in het hart van Caracas. Volgens The Wall Street Journal en Fox News werd Claude geïntegreerd in de missie via het partnerschap van Anthropic met het data-analysebedrijf Palantir Technologies.
Het Amerikaanse Department of War, onder leiding van minister Pete Hegseth, heeft commerciële AI-modellen steeds vaker gebruikt om zijn gevechtsoperaties te moderniseren.
Details over welke specifieke taken Claude uitvoerde zijn geclassificeerd, maar het is bekend dat de AI wordt gebruikt voor het samenvatten van enorme hoeveelheden inlichtingengegevens, het analyseren van satellietbeelden en mogelijk het bieden van beslissingsondersteuning voor complexe troepenbewegingen.
De inval vond plaats in de vroege ochtenduren van 3 januari 2026, toen Amerikaanse Special Operations Forces, waaronder Delta Force-commando's, met succes het versterkte paleis van Maduro binnenvielen. President Donald Trump beschreef later dat Maduro werd "overrompeld" voordat hij een staalversterkte veilige kamer kon bereiken.
Venezolaanse luchtverdedigingen werden onderdrukt en verschillende militaire locaties werden gebombardeerd tijdens de missie. Maduro werd vervoerd naar een Amerikaans oorlogsschip en vervolgens naar New York City, waar hij momenteel federale aanklachten van narco-terrorisme en cocaïne-import onder ogen ziet.
Claude is ontworpen met een constitutionele focus op veiligheid, dus hoe werd het gebruikt in een dodelijke militaire operatie? De openbare gebruiksrichtlijnen van Anthropic verbieden het gebruik van Claude voor geweld, wapenontwikkeling of surveillance.
Anthropic heeft verklaard dat het alle gebruik van zijn tools controleert en ervoor zorgt dat ze voldoen aan zijn beleid. Het partnerschap met Palantir stelt het leger echter in staat om Claude in geclassificeerde omgevingen te gebruiken.
Bronnen die bekend zijn met de zaak suggereren dat de AI mogelijk is gebruikt voor niet-dodelijke ondersteuningstaken, zoals het vertalen van communicatie of het verwerken van logistiek. Desalniettemin dringt het Department of War er momenteel op aan dat AI-bedrijven veel van hun standaardbeperkingen voor militair gebruik verwijderen.
Rapporten geven aan dat de regering-Trump overweegt een contract van $200 miljoen met Anthropic te annuleren omdat het bedrijf zorgen heeft geuit over het gebruik van zijn AI voor autonome drones of surveillance. Minister Pete Hegseth heeft verklaard dat "de toekomst van Amerikaanse oorlogsvoering AI wordt gespeld" en heeft duidelijk gemaakt dat het Pentagon niet zal samenwerken met bedrijven die militaire capaciteiten beperken.
Ontvang 8% CASHBACK wanneer je crypto uitgeeft met de COCA Visa-kaart. Bestel je GRATIS kaart.


