OpenAI усиливает меры безопасности в своем генераторе видео на основе искусственного интеллекта, Sora, чтобы предотвратить несанкционированное использование образов знаменитостей. Этот шаг последовал после того, как актер Брайан Крэнстон и Американская гильдия актеров – Федерация теле- и радиоактеров (SAG-AFTRA) выразили обеспокоенность по поводу создания дипфейков без согласия. Это отражает растущую напряженность между разработчиками ИИ и правообладателями в эпоху генеративного ИИ.
Проблема с Sora: Неконтролируемое Воспроизведение Образов
Sora, запущенная три недели назад, позволяет пользователям создавать реалистичные видео по текстовым запросам. В отличие от большинства ИИ-платформ, она обеспечивает легкое воспроизведение узнаваемых лиц и голосов. Это привело к всплеску дипфейков – некоторые безобидные, другие тревожные, а третьи откровенно злонамеренные. Способность приложения помещать людей в сфабрикованные сценарии без разрешения спровоцировала прямое вмешательство со стороны знаменитостей и профсоюзов.
Брайан Крэнстон лично уведомил SAG-AFTRA, когда его образ появился в несанкционированных видео Sora. В результате достигнутой договоренности с OpenAI знаменитости должны явно давать согласие на использование своих изображений, фактически меняя предыдущие настройки по умолчанию, когда образы были доступны, если не были исключены. OpenAI заявила, что сожалеет об этих непреднамеренных генерациях и усилила меры защиты.
Почему Это Важно: Более Широкая Тенденция Конфликтов, Связанных с Авторским Правом в ИИ
Споры вокруг Sora высвечивают критическую проблему: потерю контроля над личной идентичностью в цифровой эпохе. ИИ-модели обучаются на огромных наборах данных, часто включающих материалы, защищенные авторским правом, без явного разрешения. Это не новое противостояние. OpenAI ранее пыталась заставить агентства талантов активно отказываться от участия, стратегия, которая противоречила действующему законодательству об авторском праве и была быстро отменена.
Проблема выходит за рамки знаменитостей: на прошлой неделе платформу заполонили дипфейки Мартина Лютера Кинга-младшего, включая расистский и эксплуататорский контент. OpenAI приостановила генерацию видео с его изображением после того, как его дочь, Бернис А. Кинг, публично попросила прекратить злоупотребления.
«Общественные деятели и их семьи в конечном итоге должны контролировать, как используется их образ», – заявила OpenAI, сигнализируя об изменении в сторону уважения личной автономии.
Правовая Обстановка и Реакция OpenAI
Ситуация подчеркивает широкую правовую неопределенность в отношении контента, сгенерированного ИИ. Материнская компания OpenAI, Ziff Davis, в настоящее время судится с OpenAI за нарушение авторских прав, что демонстрирует, что эта борьба выходит за рамки прав знаменитостей и распространяется на медиаорганизации.
В то время как текущие меры защиты OpenAI несовершенны (платформа все еще иногда допускает несанкционированное использование образов), компания сейчас активно взаимодействует с правообладателями и агентствами талантов, чтобы смягчить риски неправомерного использования интеллектуальной собственности.
Инцидент с Sora является четким сигналом о том, что разработчикам ИИ необходимо сбалансировать инновации с этической и юридической ответственностью. Эпоха бесконтрольной генерации дипфейков подходит к концу, поскольку заинтересованные стороны требуют большего контроля над своей цифровой идентичностью.





























