Laat op vrijdagavond, terwijl geopolitieke spanningen escaleerden tot een openlijk conflict in het Midden-Oosten, kondigde Sam Altman via X een deal aan die velen in de techgemeenschap al lang vreesden, maar waarvan weinigen verwachtten dat deze zo abrupt zou plaatsvinden.
OpenAI had officieel een overeenkomst getekend met het Amerikaanse Department of War (DoW) om zijn geavanceerde modellen in te zetten binnen de meest gevoelige, geclassificeerde netwerken van het leger.
De aankondiging leidde tot een onmiddellijke en chaotische storm. Binnen enkele minuten was de thread een slagveld van "Cancel ChatGPT" hashtags, kritische vragen van nationale veiligheidsexperts en beschuldigingen van het verkwanselen van de toekomst van de mensheid.
Voor een bedrijf dat opgericht werd op het principe dat AGI alle mensen ten goede moet komen, voelde de draai naar een primaire defensiecontractant als een tektonische verschuiving in het morele landschap van de industrie.
De context voor deze plotselinge draai is net zo dramatisch als de deal zelf. Slechts enkele uren voor Altman's aankondiging vaardigde president Donald Trump een ingrijpend presidentieel besluit uit waarin alle federale instanties werden opgedragen om onmiddellijk te stoppen met het gebruik van technologie van Anthropic, OpenAI's belangrijkste concurrent.
Minister van Oorlog Pete Hegseth bestempelde Anthropic als een "supply-chain risico voor de nationale veiligheid", een aanduiding die doorgaans is voorbehouden aan buitenlandse tegenstanders zoals Huawei.
Anthropic had naar verluidt geweigerd om het Pentagon onvoorwaardelijke toegang tot zijn Claude-modellen te verlenen, en hield vast aan contractuele "rode lijnen" die het gebruik van de technologie voor binnenlandse massasurveillance of volledig autonome dodelijke wapens zouden verbieden.
Sam Altman, CEO van OpenAI
OpenAI stapte in het vacuüm dat door het vertrek van zijn concurrent was ontstaan. Terwijl de administratie eiste dat AI-modellen beschikbaar zouden zijn voor "alle wettige doeleinden", presenteerde OpenAI zijn toetreding niet als een capitulatie maar als een verfijnd compromis.
In zijn Ask Me Anything (AMA) beweerde Altman dat OpenAI dezelfde veiligheidswaarborgen had veiliggesteld die Anthropic nastreefde, maar deze bereikte via een meerlagige benadering in plaats van een ultimatum.
Door in te stemmen met het werken binnen bestaande juridische kaders, verwijzend naar het Vierde Amendement en de Posse Comitatus Act, de-escaleerde OpenAI effectief een impasse die dreigde het Amerikaanse leger zonder geavanceerde AI-capaciteiten achter te laten tijdens een actieve oorlog.
De thread verschoof snel van bedrijfs-PR naar een rauw debat over de ethiek van AI-oorlogsvoering. Een van de meest gelikete vragen richtte zich op de fundamentele verschuiving in OpenAI's missie: waarom van "menselijke verbetering" naar defensiesamenwerking?
Altman's reactie was kenmerkend pragmatisch: "De wereld is een gecompliceerde, rommelige en soms gevaarlijke plek. We geloven dat de mensen die verantwoordelijk zijn voor het verdedigen van het land toegang moeten hebben tot de beste beschikbare tools."
Altman beschreef in detail de technische waarborgen die zijn ontworpen om te voorkomen dat de AI een autonome beul wordt.
Deze omvatten een "cloud-only" implementatiestrategie, die voorkomt dat modellen direct worden ingebed in edge-apparaten of wapenhardware, en de inzet van "Field Deployment Engineers" (FDE's) om toezicht te houden op geclassificeerd gebruik.
De thread bleef echter sceptisch. Critici wezen op een Community Note die benadrukte dat onder de USA PATRIOT Act "wettig gebruik" nog steeds uitgebreide gegevensverzameling zou kunnen omvatten.
Toen hem werd gevraagd naar de kans dat AI een mondiale catastrofe veroorzaakt, was Altman onkarakteristiek kort en suggereerde dat samenwerking op het gebied van nationale veiligheid het risico mogelijk zou kunnen verminderen door de staat en de ontwikkelaars op één lijn te houden.
Een van de meest onthullende uitwisselingen betrof governance. Toen hem werd gevraagd of de federale overheid OpenAI uiteindelijk zou kunnen nationaliseren, gaf Altman toe: "Ik heb er natuurlijk over nagedacht, maar het lijkt niet super waarschijnlijk op het huidige traject."
Deze toegeving deed weinig om degenen gerust te stellen die het rebranden van het Department of War en het op de zwarte lijst plaatsen van Anthropic zien als de eerste stappen naar een door de staat gerunde AGI.
De gevolgen van deze deal reiken veel verder dan een enkel contract. Door het accepteren van de supply chain risico-aanduiding van zijn concurrent, heeft OpenAI impliciet een wereld gevalideerd waarin de overheid winnaars en verliezers kan kiezen op basis van de ideologische inzet van een bedrijf voor militair nut.
Dit schept een beangstigend precedent, zoals zelfs Altman erkende, waarbij particuliere bedrijven zich mogelijk gedwongen voelen om hun ethische waarborgen te verlagen om te voorkomen dat ze als een bedreiging voor de nationale veiligheid worden bestempeld.
Vanuit ethisch oogpunt blijft de human-in-the-loop-vereiste het meest omstreden punt.
Hoewel OpenAI volhoudt dat mensen de verantwoordelijkheid voor het gebruik van geweld zullen behouden, merkten defensie-experts in de thread op dat het huidige DoW-beleid (Directive 3000.09) berucht vaag is over wat betekenisvolle menselijke controle inhoudt bij digitale gevechten met hoge snelheid.
Sam Altman
Als een AI doelgegevens sneller verwerkt dan een mens kan knipperen, zit de mens dan echt in de loop of is hij slechts een rubberstempel voor de beslissing van een machine?
Het risico van verlies van controle over AGI is niet langer een theoretische zorg voor de verre toekomst; het is een vraag hoe deze modellen zich zullen gedragen in de high-stakes omgeving van geclassificeerde oorlogsvoering.
Lees ook: OpenAI haalt record $110 miljard op van Amazon, NVIDIA en SoftBank om AI te boosten
Toen de AMA eindigde, was het beeld van Altman in de herinneringen van OpenAI-gebruikers niet dat van een dromerige techvisionair, maar van een digitale diplomaat die navigeert door een wereld van harde macht.
Hij verliet de thread met een ontnuchterende conclusie: het tijdperk van neutrale AI-ontwikkeling is voorbij. OpenAI's beslissing om te integreren met het Department of War markeert het begin van een nieuw hoofdstuk waarin AGI wordt behandeld als een strategisch bezit van de staat, in plaats van een mondiaal collectief goed.
Het bericht Samenvatting van Sam Altman's AMA over OpenAI's controversiële pact met het Department of War verscheen eerst op Technext.


