Meer dan 600 Google-werknemers hebben een open brief aan CEO Sundar Pichai gestuurd, waarin ze er bij het bedrijf op aandringen een mogelijk contract met het Amerikaanse ministerie van Defensie af te wijzen. Het personeel – inclusief hooggeplaatste directeuren en vice-presidenten van Google DeepMind en Google Cloud – slaat alarm over de mogelijkheid dat Google’s Gemini AI wordt gebruikt bij geheime militaire operaties.
Het kernconflict: veiligheid versus operationele flexibiliteit
De kern van het geschil is een meningsverschil over de reikwijdte van de manier waarop AI kan worden ingezet. Volgens de organisatoren van de brief heeft Google geprobeerd waarborgen in zijn contracten op te nemen om te voorkomen dat de technologie wordt gebruikt voor autonome wapens of binnenlandse massabewaking.
Het Pentagon dringt echter naar verluidt aan op veel bredere taal en vraagt dat de AI beschikbaar is voor “alle legale toepassingen.”
Voor de werknemers is dit onderscheid van cruciaal belang:
– Het werknemersperspectief: Zij beweren dat “geheime werklasten” inherent ondoorzichtig zijn, waardoor het onmogelijk wordt om te controleren of de technologie wordt gebruikt om individuen te profileren of zich op burgers te richten.
– Het Pentagon-perspectief: Het ministerie van Defensie streeft naar ‘operationele flexibiliteit’, waardoor ze de instrumenten kunnen gebruiken waar nodig, zonder beperkende contractuele barrières.
Een groeiende trend van ethische frictie in de grote technologiesector
Deze interne opstand bij Google is geen geïsoleerd incident; het weerspiegelt een steeds groter wordende kloof tussen de snelle vooruitgang van AI en de ethische grenzen die worden gesteld door de bedrijven die deze creëren. De technologie-industrie komt steeds meer klem te zitten tussen lucratieve overheidscontracten en de morele standpunten van de eigen beroepsbevolking.
De situatie weerspiegelt een recente spraakmakende botsing waarbij Anthropic, een andere toonaangevende AI-startup, betrokken was. Antropische CEO Dario Amodei weigerde het Pentagon onbeperkte toegang tot hun systemen te verlenen, omdat hij bezorgd was dat AI zou kunnen worden gebruikt om democratische waarden te ondermijnen of taken uit te voeren waarvoor de technologie nog niet veilig genoeg is. Deze weigering leidde tot een directe confrontatie met de Amerikaanse regering, resulterend in een bevel van president Donald Trump om het gebruik van de Claude-chatbot van Anthropic door overheidsdiensten te staken.
Lessen uit het verleden: de schaduw van Project Maven
Het huidige protest bij Google heeft een aanzienlijk historisch gewicht. In 2018 dwong een soortgelijke golf van onrust onder werknemers Google zich terug te trekken uit Project Maven, een initiatief van het Pentagon dat AI gebruikte om dronebeelden te analyseren.
De huidige groep werknemers roept op tot een permanente verandering in het bedrijfsbeleid, en niet alleen tot het afwijzen van één enkel contract. Hun eisen omvatten:
1. De formele annulering van alle initiatieven die lijken op Project Maven.
2. Het opstellen en publiekelijk afdwingen van een duidelijk beleid waarin staat dat Google en zijn contractanten nooit oorlogstechnologie zullen bouwen.
“We willen dat AI de mensheid ten goede komt, en niet op inhumane of extreem schadelijke manieren gebruikt”, aldus de werknemers in hun brief.
Conclusie
De impasse bij Google benadrukt een fundamentele spanning in het AI-tijdperk: terwijl militaire en inlichtingendiensten geavanceerde modellen in hun operaties proberen te integreren, eisen de ingenieurs die deze modellen bouwen steeds meer transparantie en ethische grenzen om misbruik te voorkomen.





























