Согласно заявлению, опубликованному в X, ИИ-инструмент Grok, разработанный Илоном Маском, больше не сможет редактировать фотографии реальных людей, изображая их в откровенной одежде, в юрисдикциях, где такие изменения являются незаконными. Это решение было принято на фоне широкой обеспокоенности по поводу потенциала создания сексуализированных дипфейков с помощью ИИ на платформе.
X, социальная сеть, принадлежащая Илону Маску, заявила, что внедрила технологические меры, чтобы предотвратить редактирование изображений реальных людей в откровенной одежде с помощью аккаунта Grok. Компания запустила Grok в 2023 году.
Правительство Великобритании отреагировало на это изменение, назвав его "подтверждением" своего призыва к X контролировать Grok. Ofcom, британский регулятор в сфере коммуникаций, назвал этот шаг "позитивным развитием", но подчеркнул, что его расследование о том, нарушила ли платформа законы Великобритании, "продолжается". Ofcom заявил, что работает над продвижением расследования и определением того, что пошло не так и что делается для исправления ситуации.
Министр технологий Лиз Кендалл приветствовала этот шаг, но заявила, что "ожидает, что факты будут полностью и тщательно установлены в ходе продолжающегося расследования Ofcom".
Активисты и жертвы утверждают, что это изменение запоздало и не может обратить вспять ущерб, уже нанесенный этой технологией. Журналист и активист Джесс Дэвис входит в число тех, кто выразил обеспокоенность.
Технология, лежащая в основе Grok, как и многие инструменты для редактирования изображений с помощью ИИ, использует модели глубокого обучения, обученные на огромных наборах данных изображений. Эти модели можно манипулировать для изменения существующих изображений различными способами, включая добавление или удаление одежды. Беспокойство возникает, когда эти возможности используются для создания неконсенсуальных изображений сексуального характера, часто называемых дипфейками.
Влияние этого решения на индустрию еще предстоит увидеть. Другие платформы для редактирования изображений с помощью ИИ могут столкнуться с усилением контроля и давлением с целью внедрения аналогичных мер защиты. Этот инцидент подчеркивает этические проблемы, связанные с быстро развивающимися технологиями ИИ, и необходимость принятия превентивных мер для предотвращения злоупотреблений.
Discussion
Join the conversation
Be the first to comment