Rosnąca koalicja pracowników Google i OpenAI publicznie poparła odmowę firmy Anthropic przyznania Departamentowi Obrony Stanów Zjednoczonych nieograniczonego dostępu do technologii sztucznej inteligencji. Ponad 300 pracowników Google i 60 pracowników OpenAI podpisało list otwarty, w którym wzywają swoje firmy do okazania solidarności z Anthropic.
Sedno debaty: inwigilacja i broń autonomiczna
Spór koncentruje się wokół żądania Pentagonu dotyczącego pełnego dostępu, czemu Anthropic sprzeciwia się ze względu na obawy dotyczące potencjalnego niewłaściwego wykorzystania sztucznej inteligencji do masowego nadzoru krajowego i rozwoju w pełni autonomicznej broni. Nie jest to tylko konflikt biznesowy, ale zasadniczy spór etyczny dotyczący tego, jak potężna sztuczna inteligencja powinna być wykorzystywana.
Sygnatariusze listu twierdzą, że Pentagon za pomocą strachu próbuje nastawić między sobą gigantów technologicznych, mając nadzieję, że jeden się podda, a pozostali będą milczeć. W liście wyraźnie wzywa się dyrektorów Google i OpenAI do przestrzegania „czerwonych linii” Anthropic przeciwko tym kontrowersyjnym zastosowaniom.
Wsparcie wewnętrzne i oświadczenia publiczne
Chociaż nadal oczekujemy na oficjalne odpowiedzi od Google i kierownictwa OpenAI, sygnały sugerują, że istnieje wewnętrzne poparcie dla stanowiska Anthropic. Dyrektor generalny OpenAI Sam Altman powiedział w wywiadzie dla CNBC, że nie sądzi, że Pentagon powinien stosować wobec firm technologicznych środki egzekwowania prawa, takie jak ustawa o produkcji obronnej (DPA). Rzecznik OpenAI potwierdził również, że firma popiera stanowisko Anthropic przeciwko broni autonomicznej i masowej inwigilacji.
Główny naukowiec Google DeepMind, Jeff Dean, również nie zgodził się z X, twierdząc, że masowa inwigilacja narusza czwartą poprawkę i stwarza ryzyko nadużyć politycznych.
Istniejący dostęp wojska i groźba użycia przymusu
Wojsko używa obecnie narzędzi sztucznej inteligencji, takich jak Grok firmy X, Gemini firmy Google i ChatGPT firmy OpenAI, do niesklasyfikowanych zadań. Trwają negocjacje w sprawie rozszerzenia dostępu do transakcji niejawnych. Jednak Anthropic, pomimo istniejącego partnerstwa z Pentagonem, stanowczo sprzeciwia się wykorzystywaniu swojej sztucznej inteligencji do inwigilacji lub w pełni autonomicznych systemów uzbrojenia.
Minister obrony Pete Hegseth zagroził Anthropic, że zostanie uznana za „ryzyko łańcucha dostaw” lub zostanie wymuszona przez DPA, jeśli firma nie ustąpi. Świadczy to o chęci wykorzystania znaczących wpływów w celu zabezpieczenia dostępu do najnowocześniejszych możliwości sztucznej inteligencji.
Sytuacja uwypukla rosnące napięcie między etycznymi obawami branży technologicznej a zapotrzebowaniem wojska na zaawansowane narzędzia. Nie chodzi tu tylko o jedną firmę, to przypadek testowy tego, jak rozwój sztucznej inteligencji będzie regulowany w przyszłości i czy postęp technologiczny będzie priorytetem dla zysków czy ograniczeń etycznych.
