Wil Europa zijn onderzoek uitverkopen aan de wapenindustrie?
In Kiev verbouwen ingenieurs aan de lopende band speelgoeddrones in oorlogswapens. Ze ontwikkelen AI-systemen die hun doelwit automatisch opsporen en vernietigen [i].
Op zijn beurt heeft Rusland de vindingrijkheid van Iraanse ingenieurs gebruikt met clones van de kamikaze drone Shahed-136, die de Oekraïense bevolking terroriseren. Ze dragen 50 kilo explosieven en hebben een actieradius van 2.000 km [ii].
Over de hele wereld bekijken de ingenieurs met een mengeling van fascinatie en afschuw die transformatie van het slagveld, en kunnen zich goed de stijgende impact van AI voorstellen.
Sinds 2017 circuleert de video Slaughterbots breed op internet [iii]. Die video, geschreven door Stuart Russell, een AI-pionier, beschrijft een dystopische toekomst waar zwermen microdrones hun doelwit kunnen identificeren en achtervolgen met een chirurgische nauwkeurigheid. Dat is bijna realiteit.
Tijdens het Israëlische antwoord op de aanval van Hamas op 7 oktober 2023, werden de AI-systemen van het Israëlische leger, ‘Lavendel’ en ‘Where’s daddy?', ingezet om tientallen duizenden vermoedelijke leden van Hamas te identificeren en “de slachtbank te automatiseren” [iv].
In Kiev verbouwen ingenieurs aan de lopende band speelgoeddrones in oorlogswapensDe interventie van een mens in de selectie van doelwitten kan beperkt zijn tot enkele tientallen seconden. Zo ook het accepteren van tientallen ‘collaterale’ slachtoffers. Het doden gebeurt dikwijls door raketten op de woning van de doelwitten af te schieten.
Een van de slachtoffers van die ‘chirurgische’ aanslagen was de dichter Refaat Alereer, activist en hoogleraar aan de islamitische universiteit, die de aanval van 7 oktober had gerechtvaardigd. Hij is gedood in het appartement van zijn zus. Samen met hem zijn vier neven en nichten en een buurman is hij vernietigd door een raket.
In deze zorgwekkende geopolitieke context, met name die van de invasie in Oekraïne, denken sommige Europese beleidsmakers dat de EU, met militaire budgetten en een wapenindustrie die minder dan een derde van die van de Verenigde Staten bedraagt, moeite heeft om haar militaire soevereiniteit te waarborgen. Een bewijs daarvan zijn de uitgeputte wapenstocks door de leveringen aan Oekraïne.
Zelfs met een aanzienlijke wapenuitvoer, riskeert de wapenindustrie vlug achterop te hinken op technologisch vlak. De Europese Commissie lijkt vast van plan de ontwikkeling van nieuwe technologieën van veiligheid en bewapening te ondersteunen[v].
Horizon Europa, het programma voor onderzoek en innovatie van de Commissie, is een kolos van 13,5 miljard euro per jaar. Het is een belangrijke bron van financiering van het Europese onderzoek. Dat programma is nochtans “uitsluitend gericht op burgerlijke toepassingen” [vi].
Maar er bestaat een belangrijke grijze zone van onderzoek “voor dubbel gebruik”. Een concreet voorbeeld is het netwerk van satellieten Starlink dat wel geen militair telecommunicatie netwerk is, maar toch een belangrijke rol speelt in de Oekraïense verzet tegenover se Russische inval.
Onderzoeken voor dubbel gebruik kunnen een groot potentieel scheppen van expertise en van nieuwe technologieën voor bewapening en veiligheid. De Commissie heeft recent een witboek uitgebracht waarin ze haar beklag doet over “de afwezigheid van geschikte middelen voor de wederkerige verrijking van burgerlijk en militair onderzoek en ontwikkeling” [vii].
De menselijke interventie bij de selectie van doelwitten kan beperkt zijn tot enkele seconden, evenals het accepteren van tientallen 'collaterale' slachtoffersHet is nodig “synergiën aan te moedigen”, “de concurrentie te verbeteren” en “marktopening te scheppen”. Het feit dat die technologieën kunnen dienen om mensen in de gaten te houden, te verminken en te doden, wordt daarbij niet in rekening genomen. Het witboek stelt verschillende opties voor, maar spreekt een duidelijke voorkeur uit de exclusieve focus op burgerlijke toepassingen te doorbreken.
In België heeft het onderzoeksproject ‘Multispin.AI’ onlangs voor controverse gezorgd[viii]. Dat project richt zich op de ontwikkeling van een nieuwe technologie, de ‘spintronica’ om een “AI -coprocessor met laag verbruik voor gedecentraliseerde toepassingen” te maken: het soort chips dat vreselijk nuttig zou zijn in autonome auto’s zowel als in intelligente drones.
Verrassend is de deelname in dat project van een Israëlische startup, SpinEdge, die onlangs een programma heeft afgewerkt voor het ministerie van defensie dat de “banden tussen de burgerlijke en militaire markt wil versterken” [ix]. Een dergelijk partnerschap stelt de vraag van de risico’s op korte en middellange termijn van zo’n dubbel gebruik.
Als je je bevraagt bij de Commissie, verneem je tot je verbazing dat het project geen enkele betekenisvolle ethische vraag heeft opgeworpen [x]. De Commissie verwijst naar het Witboek en beweert dat “de defensie sector niet automatisch is uitgesloten van financiering door het specifieke Horizon Europa. Hun deelname kan gerechtvaardigd zijn als hun onderzoeks- en ontwikkelingsactiviteiten zich exclusief op burgerlijke toepassingen richten”.
Een dergelijke uitleg is ontstellend naïef. Hij staat ook tegenstelling met de richtlijnen van het Horizonprogramma die voorschrijven dat “de activiteiten bestemd voor militair gebruik niet mogen worden gefinancierd”.
Bovendien is SpinEdge een Israëlisch bedrijf, het is niet onderworpen aan het Europese recht, met name de procedures van controle bij de uitvoer die het misbruik van dubbel gebruik technologieën moeten beperken, bijvoorbeeld voor terroristische organisaties en niet-democratische regimes.
Waarin geeft de verstrengeling tussen burgerlijk en militair onderzoek problemen? Is niet elke burgerlijke onderzoeker in eer en geweten vrij deel te nemen aan een onderzoeksgroep? Dat zou economische factoren buiten beschouwing laten. Maar onderzoek is tegenwoordig evenzeer gemotiveerd door financierbaarheid dan door nieuwsgierigheid.
Als geld vinden voor militair nuttig onderzoek bevoorrecht wordt bevinden we ons meteen op een hellend vlak. In de VS zijn de projecten Darpa (Agentschap voor Spitsonderzoek in Defensie) een gemakkelijke bron van geld voor vele academici die zich weinig vragen stellen over het uiteindelijk doel van hun onderzoek.
De vraag over het dubbel gebruik is overigens niet eenvoudig. De meeste technologieën kunnen zich richten op velerlei doeleinden die meer of minder ethische dilemma’s stellen. In de verschillende stadia van ontwikkeling van een technologie is er sprake van verantwoordelijkheid als een risico op misbruik duidelijk te voorzien valt. Die verantwoordelijkheid houdt een ethische plicht in die risico’s te milderen.
Als geld vinden voor militair nuttig onderzoek bevoorrecht wordt, bevinden we ons meteen op een hellend vlakMaar een beweging naar morele onverschilligheid kan zich vlug voordoen. Als onderzoek met dubbel gebruik of militair onderzoek aanvaardbaar wordt in een immens onderzoeksprogramma zoals Horizon Europa, schept dat de indruk dat dit sociaal en moreel aanvaardbaar is. De morele verantwoordelijkheid voor de gevaren van een technologie wordt dan doorgeschoven naar diegenen die aan toepassingen werken. De onderzoekers worden zo van hun verantwoordelijkheid ontheven.
Het is klaar dat we hier staan voor een essentiële vraag voor de Europese Commissie: moet een onderzoeksprogramma dat essentieel is gericht op burgerlijk onderzoek in de toekomst deels dienen om de sector van de bewapening te ondersteunen? Dergelijke vraag vereist een publiek en democratisch debat. De Europese Commissie lijkt al een beslissing te hebben genomen en wil zich niet vastrijden in zo’n debat.
Yves Moreau, professor ingenieur aan KU Leuven, voor Carta Academica.Carta Academica is een collectief van Belgische academici dat tussenkomt in het publieke debat.
Deze open brief verscheen eerder in Le Soir, de vertaling is van vertaaldesk De Wereld Morgen.
Noten:
[i] Paul Mozur et Adam Satariano. A.I. Begins Ushering in an Age of Killer Robots. The New York Times. 12 juillet 2024.[ii] Philippe de Boeck. Guerre en Ukraine : les drones iraniens, nouvelle arme redoutable de l’armée russe. Le Soir. 14 octobre 2024.
[iii] Stewart Sugg. Slaughterbots. YouTube.
[iv] Bethan McKernan et Harry Davies. ‘The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets. The Guardian. 3 avril 2024.
[v] Leïla Miñano et Laure Brillaud. De l’Europe de la Défense à l’Europe des armes. Investigate Europe. 28 mars 2022.
[vi] Commission européenne. Horizon Europe programme structure.
[vii] Commission européenne. Livre blanc sur les options envisageables pour renforcer le soutien à la recherche et au développement dans le domaine des technologies à double usage potentiel.
[viii] Charlotte Hutin. L’UCLouvain ne suspendra pas ses accords avec les chercheurs israéliens. Le Soir. 3 juillet 2024.
[ix] Spintronics-info. Spintronics companies : SpinEdge. iHLS Israel Homeland Security. INNOFENSE innovation center.
[x] Yves Moreau. Droit d’accès à l’information – projet MULTISPIN.AI.Les points de vue exprimés dans les chroniques de Carta Academica sont ceux de leur(s) auteur(s) et/ou autrice(s) ; ils n’engagent en rien les membres de Carta Academica, qui, entre eux d’ailleurs, ne pensent pas forcément la même chose. En parrainant la publication de ces chroniques, Carta Academica considère qu’elles contribuent à des débats sociétaux utiles. Des chroniques pourraient dès lors être publiées en réponse à d’autres. Carta Academica veille essentiellement à ce que les chroniques éditées reposent sur une démarche scientifique.