Ponad 600 pracowników Google wysłało list otwarty do dyrektora generalnego Sundara Pichai, wzywając go do odrzucenia potencjalnego kontraktu z Departamentem Obrony USA. Pracownicy – w tym starsi dyrektorzy i wiceprezesi Google DeepMind i Google Cloud – alarmują w związku z możliwością wykorzystania modelu sztucznej inteligencji Gemini w tajnych operacjach wojskowych.
Istota konfliktu: bezpieczeństwo a elastyczność operacyjna
Sednem sporu jest spór co do zakresu sztucznej inteligencji. Według organizatorów listu Google próbował uwzględnić w umowach zabezpieczenia zapobiegające wykorzystywaniu technologii do tworzenia broni autonomicznej lub krajowej masowej inwigilacji.
Jednak według doniesień Pentagon nalega na znacznie szersze sformułowanie, wymagając dostępności sztucznej inteligencji do „wszystkich celów zgodnych z prawem”.
Dla pracowników to rozróżnienie ma kluczowe znaczenie:
– Stanowisko personelu: Twierdzą, że „tajne zadania” są z natury nieprzejrzyste, co uniemożliwia monitorowanie, czy technologia jest wykorzystywana do profilowania ludzi, czy atakuje cywilów.
– Stanowisko Pentagonu: Departament Obrony dąży do „elastyczności operacyjnej”, która pozwoliłaby mu na wykorzystanie narzędzi w razie potrzeby bez restrykcyjnych barier umownych.
Rosnący trend konfliktów etycznych w Big Tech
Ten wewnętrzny bunt w Google nie jest odosobnionym przypadkiem; odzwierciedla rosnącą przepaść między szybkim postępem sztucznej inteligencji a granicami etycznymi wyznaczanymi przez firmy deweloperskie. Branża technologiczna coraz częściej znajduje się między młotem a kowadłem: lukratywne kontrakty rządowe i standardy moralne własnych pracowników.
Sytuacja przypomina niedawne głośne starcie z udziałem Anthropic, innego wiodącego startupu AI. Dyrektor generalny Anthropic Dario Amodei odmówił Pentagonowi nieograniczonego dostępu do swoich systemów, powołując się na obawy, że sztuczna inteligencja może zostać wykorzystana do podważania wartości demokratycznych lub wykonywania zadań, dla których technologia nie jest jeszcze wystarczająco bezpieczna. Odmowa ta doprowadziła do bezpośredniej konfrontacji z rządem USA, w wyniku której prezydent Donald Trump wydał rozporządzenie zakazujące używania chatbota Claude firmy Anthropic w departamentach rządowych.
Lekcje z przeszłości: projekt Shadow of the Maven
Obecny protest w Google ma poważne implikacje historyczne. W 2018 roku podobna fala niezadowolenia pracowników zmusiła Google do wycofania się z Project Maven, inicjatywy Pentagonu, która wykorzystywała sztuczną inteligencję do analizy nagrań z dronów.
Obecna grupa pracowników domaga się nie tylko likwidacji jednego konkretnego kontraktu, ale zasadniczej zmiany polityki firmy. Ich wymagania obejmują:
1. Oficjalne odwołanie wszelkich inicjatyw takich jak projekt Maven.
2. Establish and publicly enforce a clear policy stating that Google and its contractors will never create technology for warfare.
„Chcemy, aby sztuczna inteligencja przynosiła korzyści ludzkości, a nie była wykorzystywana w nieludzki lub rażąco szkodliwy sposób” – napisali pracownicy w swoim piśmie.
Wniosek
Spór w Google uwypukla fundamentalne napięcie w epoce sztucznej inteligencji: podczas gdy agencje wojskowe i wywiadowcze starają się włączać zaawansowane modele do swojej pracy, inżynierowie tworzący te modele coraz bardziej domagają się przejrzystości i ram etycznych, aby zapobiegać nadużyciom.
