Een hoge Amerikaanse defensiefunctionaris heeft onthuld hoe het leger overweegt generatieve AI-chatbots te gebruiken. Het idee is dat een systeem lijsten met mogelijke militaire doelwitten analyseert en rangschikt op prioriteit, waarbij het rekening houdt met factoren zoals de locatie van vliegtuigen. De cruciale nuance is dat de uiteindelijke aanbevelingen altijd door mensen worden gecontroleerd en geëvalueerd voordat er een besluit wordt genomen. Dit voorbeeld, dat volgens de functionaris illustreert hoe dingen zouden kunnen werken, werpt licht op een fundamentele verschuiving in high-stakes besluitvorming.

De functionaris, die anoniem sprak met MIT Technology Review, benadrukte dat dit een mogelijke toepassing is en wilde niet bevestigen of ontkennen of AI-systemen op deze manier al worden ingezet. Het Pentagon onderzoekt momenteel een aanval op een Iraanse school, wat de timing van deze onthulling gevoelig maakt. De mogelijke inzet van chatbots zoals ChatGPT van OpenAI of Grok van xAI wordt besproken, omdat beide bedrijven recent overeenkomsten hebben gesloten om hun modellen in geclassificeerde militaire omgevingen te gebruiken.

Het onderscheid tussen twee soorten AI

De onthulling maakt ook duidelijk dat het leger twee verschillende AI-technologieën inzet, elk met eigen beperkingen. Sinds 2017 werkt het aan Project Maven, een “big data”-initiatief dat oudere AI-vormen, zoals computervisie, gebruikt. Dit systeem analyseert enorme hoeveelheden data en beelden, bijvoorbeeld duizenden uren aan dronebeelden, om doelwitten algoritmisch te identificeren. Een rapport uit 2024 toonde aan dat soldaten via een dashboard met een slagveldkaart doelwitten selecteerden en controleerden, wat het goedkeuringsproces versnelde.

De nieuwe laag die nu wordt toegevoegd, is die van de generatieve AI-chatbot. Waar Project Maven doelwitten vindt, zou de chatbot kunnen worden gebruikt om ze te analyseren en te prioriteren via een gespreksinterface. Het is een verschil tussen detectie en geavanceerde, contextuele analyse. Andere media hebben gerapporteerd dat Claude van Anthropic al is geïntegreerd in bestaande militaire AI-systemen en is gebruikt bij operaties, maar de functionaris geeft specifiek inzicht in de rol die chatbots zouden kunnen spelen bij het versnellen van de zoektocht naar en beoordeling van doelwitten.

De onmisbare rol van menselijk toezicht

Het centrale thema in deze militaire overweging is niet de autonomie van de AI, maar de structuur van menselijk toezicht. Het voorgestelde model is niet dat een chatbot zelfstandig beslist. Het model is dat de chatbot fungeert als een geavanceerde analytische assistent die opties presenteert, rangschikt en argumenteert. De eindverantwoordelijkheid en de daadwerkelijke beslissing blijven bij mensen. Deze benadering probeert de snelheid en verwerkingskracht van AI te benutten, terwijl de morele en tactische beoordeling in menselijke handen blijft.

Dit roept direct ethische en praktische vragen op. Hoe zorg je ervoor dat de menselijke controleur de aanbeveling van de AI niet klakkeloos overneemt, een fenomeen bekend als automation bias? Is de mens in de lus voldoende getraind om de output van een complex taalmodel kritisch te bevragen? En hoe transparant is het redeneerproces van de chatbot als het gaat om leven-of-dood beslissingen? Het Pentagon staat voor deze vragen, maar ze zijn niet uniek voor het slagveld.

Hoe kun je dit vandaag toepassen?

De kern van dit militaire voorbeeld is een blauwdruk voor het inzetten van AI bij complexe, risicovolle beslissingen in elke sector. Het gaat om het combineren van AI-analyse met onafhankelijke menselijke validatie. Voor een ondernemer of professional is de les niet om doelwitten te selecteren, maar om dit raamwerk toe te passen op je eigen kritieke processen.

Als je een investeringsbeslissing moet nemen over een nieuwe markt of overname, zou je een AI-chatbot kunnen gebruiken als analytische partner. Je voedt het met marktrapporten, financiële data en concurrentieanalyses en vraagt het om de opties te rangschikken op basis van criteria zoals groeipotentieel en risico. De cruciale stap is dat je het resultaat niet direct overneemt, maar het gebruikt als een gestructureerde start voor je eigen teamoverleg, waarbij je elk punt kritisch bevraagt.

Als je in de zorg of een gereguleerde sector werkt en compliance-risico’s moet beoordelen, biedt dit een model. Een AI-tool zou een batch documenten of procedures kunnen screenen op potentiële risico’s en deze kunnen prioriteren van ‘hoog’ naar ’laag’. De menselijke professional gebruikt deze gefocuste lijst vervolgens als leidraad voor een diepgaande, eigen audit. De AI versnelt de detectie, maar de expert blijft verantwoordelijk voor de definitieve beoordeling en eventuele actie.

Als je een productontwikkelteam aanstuurt en moet kiezen tussen verschillende functie-ideeën, kun je een vergelijkbare aanpak hanteren. Laat een AI-model de ingediende voorstellen analyseren op basis van geschatte ontwikkeltijd, verwachte klantwaarde en alignement met de roadmap. Het genereert een geprioriteerde lijst. Het team bespreekt deze lijst vervolgens, maar negeert daarbij bewust de AI-rangschikking om eigen argumenten te horen, voordat een besluit wordt genomen.

Als je als juridisch professional of adviseur een complex dossier moet voorbereiden, zou een chatbot kunnen helpen bij het identificeren van de sterkste en zwakste punten in een zaak, gebaseerd op ingevoerde documenten en jurisprudentie. Jij, als adviseur, gebruikt deze analyse niet als antwoord, maar als een controlelijst. Je verifieert elk punt, zoekt naar ontbrekende context en bouwt op die basis je eigen, onderbouwde advies op.

De les voor elke ondernemer is dat de kracht van AI niet zit in het automatiseren van de beslissing, maar in het structureren van de informatie voor de beslissing. Het militaire model toont een hybride werkstroom: AI als krachtige, snelle analysemachine, de mens als kritische, verantwoordelijke eindbeslisser. Overweeg bij je eigen belangrijkste keuzes of je een dergelijke geassisteerde, maar menselijk geleide, werkwijze kunt invoeren.

Bron: Technologyreview