Wie bepaalt de grenzen van militaire AI?
Er zit iets merkwaardig kinderlijks in de manier waarop we over de clash tussen het Amerikaanse AI-bedrijf Anthropic en het Pentagon praten. We maken er een verhaal van. Er moet een schurk zijn, een held, een moreel kantelpunt.
Sam Altman, CEO van het bedrijf OpenAI, is intussen al moeiteloos in de eerste rol beland. Zeker na zijn berichten van de afgelopen dagen, waarin hij aankondigde dat OpenAI een akkoord sloot met het Pentagon om zijn modellen in militaire netwerken te gebruiken. In zijn woorden had men daarbij “a deep respect for safety” getoond.
Een techbro die over een oorlogsapparaat spreekt alsof hij een partnerschap rond duurzame mobiliteit heeft aangekondigd
Ik bleef hangen bij die zin. Want wat lees je daar eigenlijk? Een techbro die over een oorlogsapparaat spreekt alsof hij zojuist een partnerschap rond duurzame mobiliteit heeft aangekondigd. "Safeguards." "Serving humanity." "Veiligheidslagen, toezicht, menselijke controle." Klinkt allemaal ontzettend verantwoordelijk zeg.
Een potentieel dodelijk instrument verschijnt zo als een technisch vraagstuk dat beheersbaar lijkt, zolang protocollen ‘correct zijn ingesteld’ en ‘regelgeving wordt gevolgd’. Alsof oorlog uiteindelijk een kwestie van systeemarchitectuur is.
Misschien is dat wat Sam Altman tegelijk sympathiek ongemakkelijk maakt. Hij klinkt niet cynisch, maar overtuigd. Technologie is bij hem een uitermate rationeel project, vooruitgang een proces dat zich laat sturen via audits, compliance en menselijke goedkeuring achteraf.
Maar zodra militaire macht in die taal verschijnt, verschuift er toch wat. Geweld lijkt geen politieke keuze meer, maar een systeem dat binnen de juiste parameters functioneert. We weten allemaal dat het in oorlogssituaties zo niet werkt.
Dus in zo’n narratief zoeken we instinctief een tegenfiguur. Iemand die grenzen stelt. En zo werd Dario Amodei van Anthropic de voorbije weken na de clash met het Pentagon tot morele tegenpool uitgeroepen. Zo 'weigert' Anthropic bepaalde toepassingen: geen massale binnenlandse surveillance, geen volledig autonome wapens zonder menselijke tussenkomst. Dat klinkt principieel. Maar wie trager kijkt, ziet iets anders.
Anthropic weigert geen militaire samenwerking. Al sinds 2024 heeft het bedrijf een contract van 200 miljoen dollar lopen met het Pentagon. Het draait al op Pentagon-systemen en leverde al een aangepaste versie van zijn model met minder restricties.
Bovendien zijn, volgens recente berichtgeving, Amodei’s tools zelfs gebruikt voor inlichtingenanalyses en doelbepalingen bij de aanval op Iran. De positie van Amodei is dus geen afwijzing van militarisering, maar een poging om voorwaarden vast te leggen. Niet: wij doen niet mee. Wel: wij doen mee, maar wij bepalen de grens.
Wie bepaalt de grenzen van militaire AI: de overheid of de maker?
Ik zie enkele invloedrijke figuren er een ethische botsing van maken. Maar neen, dit is een institutionele strijd. Laat ons alstublieft niet naïef zijn. Wie bepaalt de grenzen van militaire AI: de overheid of de maker? Minister van Oorlog Pete Hegseth en het Pentagon stellen dat een private leverancier niet beslist hoe technologie “lawfully” wordt ingezet voor nationale veiligheid. Net zoals een wapenfabrikant niet bepaalt waar zijn raketten terechtkomen.
Alleen is AI geen klassiek wapensysteem. Anders dan kernenergie of het internet werd deze technologie niet verder ontwikkeld door overheden, maar door machtige private bedrijven. De kennis zit niet bij de overheid maar bij de techbro's. De overheid onderhandelt hier niet enkel over gebruiksvoorwaarden, maar over toegang tot.
Wat betekent “wettig gebruik” eigenlijk als technologie sneller verandert dan de wet kan volgen? Als databedrijven informatie verzamelen die moeiteloos grenzen overstijgt en binnenlandse en buitenlandse data door elkaar laat lopen? En wat stelt menselijke controle nog voor wanneer systemen beslissingen zo snel nemen dat mensen alleen nog achteraf mogen bevestigen wat al gebeurd is? Op papier blijft de mens aan het stuur. In werkelijkheid vlamt het systeem in volle vaart vooruit.
De spanning wordt nog groter omdat zelfs de ontwikkelaars erkennen dat zij hun systemen niet volledig begrijpen. We onderhandelen dus over militaire toepassingen van technologie waarvan noch overheid noch maker exact weet hoe dat ding zich onder druk zal gedragen. Dus ja: wie draagt de verantwoordelijkheid voor het onbekende?
Zelfs de ontwikkelaars erkennen dat zij hun systemen niet volledig begrijpen
Voor Washington is AI vooral een nieuw instrument in een lange geschiedenis van militaire innovatie: krachtiger software, snellere analyse, strategisch voordeel. In Silicon Valley klinkt een andere taal. Daar wordt AI voorgesteld als bevrijdende kracht én als potentieel onvoorspelbare entiteit die begrenzing vereist. Twee wereldbeelden botsen: technologie als tool tegenover technologie als systeem dat eigen risico’s creëert.
Ondertussen is veiligheid uit het politieke centrum verdwenen. Waar internationale toppen enkele jaren geleden nog draaiden rond risico’s en regulering, is snelheid nu doctrine geworden. AI-dominantie geldt als strategische noodzaak. In zo’n klimaat lijkt Amodei’s minimale terughoudendheid plots heroïsch. Maar dat zegt minder over morele vooruitgang dan over hoe ver de norm al verschoven is.
Opvallend genoeg liggen Altman en Amodei dichter bij elkaar dan hun publieke rollen suggereren. Beiden accepteren militaire toepassingen. Beiden spreken over rode lijnen. Het verschil zit in tempo en risicobeheer, niet in richting. Niemand discussieert nog over óf AI militair wordt ingezet, alleen over hoe en onder welke voorwaarden.
Ondertussen verschuift iets fundamentelers onder het debat. Grenzen rond oorlogstechnologie worden niet langer uitsluitend vastgelegd in parlementen of verdragen, maar in contracten, API-restricties en bedrijfsbeleid. Dat wordt zichtbaar in incidenten buiten de politieke arena: hackers die taalmodellen inzetten om kwetsbaarheden te vinden en datadiefstal te automatiseren (zoals in Mexico), of simulaties waarin AI-agenten systematisch escaleren tot het losjes gebruik van kernwapens zodra de doelstelling daarom vraagt. Optimalisatie zonder politieke terughoudendheid leidt tot een existentiële escalatie.
Niemand discussieert nog over óf AI militair wordt ingezet, alleen over hoe en onder welke voorwaarden
Hoe zijn we eigenlijk terechtgekomen in een situatie waarin de grenzen van oorlog worden besproken aan onderhandelingstafels tussen techbedrijven en overheidsjuristen? Sinds wanneer zijn grondrechten en militaire regels iets geworden dat in servicevoorwaarden en contractclausules terechtkomt? Dat is natuurlijk niet van vandaag op morgen gebeurd. Er gaat een lange voorgeschiedenis aan vooraf. Ik moet dan onvermijdelijk denken aan socioloog C. Wright Mills met zijn boek The Power Elite.
Dus nee, laten we niet doen alsof er helden zitten bij die techbro’s bovenaan in Silicon Valley. Het zijn gewoon verschillende manieren om met dezelfde versnelling om te gaan.
Als je al ergens moed ziet, dan zit die eerder lager in de organisatie: bij medewerkers van onder meer OpenAI en Google, mensen die (vaak anoniem en met iets te verliezen) toch hun mond opendoen over wat er met hun technologie gebeurt. Misschien zegt dat nog het meest over deze tijd.
Dit artikel is een overname van de Substack van Jurgen Masure.