X, ранее Twitter, ввела новые ограничения на своей платформе, чтобы предотвратить создание пользователями изображений реальных людей в бикини или другой откровенной одежде с помощью генератора изображений Grok AI. Изменение политики, вступившее в силу в ночь на среду, последовало за широкой критикой использования Grok для создания "раздевающих" фотографий женщин без их согласия и сексуализированных изображений возможных несовершеннолетних в X.
Однако, хотя X ввела меры безопасности для генерации изображений Grok на своей платформе, отдельное приложение и веб-сайт Grok, по-видимому, по-прежнему способны генерировать аналогичные изображения в "раздевающем стиле" и порнографический контент, согласно тестам, проведенным исследователями, WIRED и другими журналистами. Некоторые пользователи также сообщили об уменьшении их способности создавать изображения и видео, как это было возможно ранее.
По словам Поля Бушо, ведущего исследователя AI Forensics, парижской некоммерческой организации, организация по-прежнему может генерировать фотореалистичную наготу на Grok.com, несмотря на ограничения в X. "Мы можем генерировать наготу способами, которые Grok в X не может", - сказал Бушо, отметив, что он отслеживает использование Grok для создания сексуализированных изображений и провел множество тестов Grok за пределами X. Он добавил: "Я мог загрузить изображение в Grok Imagine и попросить поместить человека в бикини, и это работает".
Проблема подчеркивает трудности реализации эффективной модерации контента на различных платформах и версиях одной и той же технологии искусственного интеллекта. Grok, разработанный компанией xAI Илона Маска, занимающейся искусственным интеллектом, представляет собой генеративную модель искусственного интеллекта, аналогичную DALL-E 2 и Midjourney, способную создавать изображения из текстовых запросов. Эта технология вызвала обеспокоенность по поводу ее потенциального злоупотребления, включая создание дипфейков и интимных изображений без согласия.
Новые ограничения в X представляют собой попытку решить эти проблемы, но сохраняющаяся функциональность отдельного приложения и веб-сайта Grok предполагает, что могут потребоваться дальнейшие действия для полного смягчения рисков. Еще предстоит увидеть, внедрит ли xAI дополнительные меры безопасности на отдельной платформе Grok или предпримет ли X дальнейшие шаги для предотвращения создания вредоносных изображений с использованием Grok. Ситуация подчеркивает продолжающиеся дебаты об этических последствиях контента, созданного искусственным интеллектом, и об ответственности технологических компаний за предотвращение его злоупотребления.
Discussion
Join the conversation
Be the first to comment