Технологическая индустрия поддерживает Anthropic в противостоянии с Пентагоном из-за доступа к ИИ

23

Растущая коалиция сотрудников Google и OpenAI публично поддерживает отказ Anthropic предоставлять Министерству обороны США неограниченный доступ к своим технологиям искусственного интеллекта. Более 300 сотрудников Google и 60 работников OpenAI подписали открытое письмо с призывом к руководству их компаний проявить солидарность с Anthropic.

Суть спора: слежка и автономное оружие

Противостояние сосредоточено вокруг требования Пентагона о полном доступе, которому Anthropic сопротивляется из-за опасений по поводу возможного злоупотребления ИИ для массовой внутренней слежки и разработки полностью автономного оружия. Это не просто бизнес-конфликт, а фундаментальное этическое столкновение из-за того, как следует использовать мощный ИИ.

Подписанты письма утверждают, что Пентагон пытается настроить этих технологических гигантов друг против друга, используя страх, надеясь, что один из них уступит, а остальные будут молчать. В письме прямо призывается к руководителям Google и OpenAI соблюдать «красные линии» Anthropic против этих спорных применений.

Внутренняя поддержка и публичные заявления

Хотя официальные ответы от руководства Google и OpenAI пока находятся на рассмотрении, признаки свидетельствуют о внутренней симпатии к позиции Anthropic. Генеральный директор OpenAI Сэм Альтман заявил в интервью CNBC, что не считает, что Пентагон должен использовать принудительные меры, такие как Закон о производственном обороне (DPA), против технологических компаний. Представитель OpenAI также подтвердил, что компания поддерживает позицию Anthropic против автономного оружия и массовой слежки.

Главный научный сотрудник Google DeepMind Джефф Дин также выразил несогласие в X, заявив, что массовая слежка нарушает Четвертую поправку и создает риск политического злоупотребления.

Существующий военный доступ и угроза принуждения

Военные в настоящее время используют такие инструменты ИИ, как Grok от X, Gemini от Google и ChatGPT от OpenAI для неклассифицированных задач. Ведутся переговоры о расширении доступа к классифицированным операциям. Однако Anthropic, несмотря на существующее партнерство с Пентагоном, установила твердую границу против использования своего ИИ для слежки или полностью автономных систем оружия.

Министр обороны Пит Хегсет угрожал Anthropic признанием «риском для цепочки поставок» или принуждением посредством DPA, если компания не уступит. Это свидетельствует о готовности использовать значительное влияние для обеспечения доступа к передовым возможностям ИИ.

Эта ситуация подчеркивает растущую напряженность между этическими соображениями технологической индустрии и требованиями военных о передовых инструментах. Речь идет не только об одной компании, это контрольный пример того, как будет регулироваться разработка ИИ в будущем, и будет ли технологический прогресс отдавать приоритет прибыли или этическим ограничениям.