Более 600 сотрудников Google направили открытое письмо генеральному директору Сундару Пичаи с призывом отклонить потенциальный контракт с Министерством обороны США. Сотрудники — среди которых высокопоставленные директора и вице-президенты из Google DeepMind и Google Cloud — бьют тревогу из-за возможности использования ИИ-модели Gemini в секретных военных операциях.
Суть конфликта: Безопасность против операционной гибкости
В основе спора лежит разногласие по поводу масштабов применения ИИ. По словам организаторов письма, Google пытался включить в контракты защитные механизмы, чтобы предотвратить использование технологий для создания автономного оружия или массовой слежки внутри страны.
Однако, по имеющимся данным, Пентагон настаивает на гораздо более широких формулировках, требуя, чтобы ИИ был доступен для «всех законных целей».
Для сотрудников это различие является критическим:
— Позиция сотрудников: Они утверждают, что «секретные рабочие нагрузки» по своей сути непрозрачны, что делает невозможным контроль за тем, используется ли технология для профилирования людей или нанесения ударов по гражданским лицам.
— Позиция Пентагона: Министерство обороны стремится к «операционной гибкости», которая позволила бы им использовать инструменты по мере необходимости без ограничительных барьеров в контрактах.
Растущий тренд этических конфликтов в Big Tech
Этот внутренний бунт в Google не является единичным случаем; он отражает расширяющийся разрыв между стремительным прогрессом ИИ и этическими границами, установленными компаниями-разработчиками. Технологическая индустрия всё чаще оказывается между молотом и наковальней: прибыльными государственными контрактами и моральными принципами собственных сотрудников.
Ситуация напоминает недавнее громкое столкновение с участием Anthropic, еще одного ведущего ИИ-стартапа. Генеральный директор Anthropic Дарио Амодеи отказался предоставить Пентагону неограниченный доступ к своим системам, выразив опасения, что ИИ может быть использован для подрыва демократических ценностей или выполнения задач, для которых технология еще недостаточно безопасна. Этот отказ привел к прямому противостоянию с правительством США, результатом которого стал указ президента Дональда Трампа о запрете использования чат-бота Claude от Anthropic в государственных ведомствах.
Уроки прошлого: Тень проекта Maven
Нынешний протест в Google имеет серьезный исторический подтекст. В 2018 году аналогичная волна недовольства сотрудников вынудила Google выйти из Project Maven — инициативы Пентагона, в которой ИИ использовался для анализа видеозаписей с беспилотников.
Нынешняя группа сотрудников требует не просто отказа от одного конкретного контракта, а фундаментального изменения политики компании. Их требования включают:
1. Официальную отмену любых инициатив, подобных проекту Maven.
2. Разработку и публичное соблюдение четкой политики, гласящей, что Google и его подрядчики никогда не будут создавать технологии для ведения войны.
«Мы хотим, чтобы ИИ приносил пользу человечеству, а не использовался бесчеловечными или крайне вредоносными способами», — заявили сотрудники в своем письме.
Заключение
Противостояние в Google подчеркивает фундаментальное напряжение в эпоху ИИ: в то время как военные и разведывательные службы стремятся интегрировать передовые модели в свою работу, инженеры, создающие эти модели, всё чаще требуют прозрачности и этических рамок, чтобы предотвратить злоупотребления.
