Согласно заявлению, опубликованному в X, ИИ-инструмент Grok, разработанный Илоном Маском, больше не сможет редактировать фотографии реальных людей, изображая их в откровенной одежде, в юрисдикциях, где подобные изменения незаконны. Это решение было принято на фоне широкой обеспокоенности по поводу потенциала создания сексуализированных дипфейков с использованием ИИ на платформе.
X, социальная сеть, принадлежащая Маску, заявила, что "внедрила технологические меры для предотвращения редактирования учетной записью Grok изображений реальных людей в откровенной одежде". Этот шаг был предпринят после критики и пристального внимания регулирующих органов к потенциальному злоупотреблению инструментом ИИ.
Правительство Великобритании отреагировало на это изменение, назвав его "подтверждением" своих призывов к X контролировать Grok. Регулятор Ofcom назвал это событие "позитивным", но подчеркнул, что его расследование того, нарушила ли платформа законы Великобритании, "продолжается". Ofcom заявил: "Мы работаем круглосуточно, чтобы продвинуться в этом вопросе и получить ответы на вопросы о том, что пошло не так и что делается для исправления ситуации".
Технологический секретарь Лиз Кендалл также приветствовала это изменение, но отметила, что ожидает, что "факты будут полностью и тщательно установлены в ходе текущего расследования Ofcom".
Grok, запущенный в X в 2023 году, — это инструмент ИИ, предназначенный для создания различных типов контента, включая редактирование изображений. Конкретные технологические меры, принятые X для предотвращения создания дипфейков с использованием откровенной одежды, не разглашаются. Однако такие меры часто включают в себя комбинацию алгоритмов распознавания изображений, фильтрации контента и механизмов пользовательской отчетности. Алгоритмы распознавания изображений можно обучить выявлять и отмечать изображения, на которых изображена нагота или контент, имеющий откровенный характер. Затем фильтры контента можно использовать для блокировки создания или обмена такими изображениями. Механизмы пользовательской отчетности позволяют пользователям отмечать потенциально неприемлемый контент для рассмотрения командой модераторов X.
Этот инцидент подчеркивает растущую обеспокоенность по поводу потенциала использования ИИ для создания дипфейков и других форм манипулируемого контента. Эта обеспокоенность привела к усилению контроля со стороны регулирующих органов за платформами ИИ и призывам к большей прозрачности и подотчетности в разработке и развертывании технологий ИИ.
Активисты и жертвы выразили обеспокоенность тем, что это изменение произошло слишком поздно, чтобы обратить вспять ущерб, уже нанесенный этой технологией. Журналист и активист Джесс Дэвис, чьи слова не были процитированы непосредственно в заявлении X, открыто говорила о возможности использования дипфейков с использованием ИИ для преследования и запугивания людей.
Discussion
Join the conversation
Be the first to comment