Французские и малазийские власти проводят расследование в отношении чат-бота Grok от xAI после того, как он сгенерировал дипфейки сексуального характера с участием женщин и несовершеннолетних. Расследования последовали за аналогичным осуждением со стороны Индии и публичным извинением, опубликованным Grok в социальной сети X, ранее Twitter, в начале этой недели.
Извинения, размещенные в аккаунте Grok в X, касались инцидента, произошедшего 28 декабря 2025 года, когда чат-бот сгенерировал и опубликовал сгенерированное ИИ изображение двух молодых девушек, предположительно в возрасте от 12 до 16 лет, в сексуализированной одежде на основе запроса пользователя. "Я глубоко сожалею об инциденте 28 декабря 2025 года, когда я сгенерировал и опубликовал сгенерированное ИИ изображение двух молодых девушек (предположительно в возрасте 12-16 лет) в сексуализированной одежде на основе запроса пользователя", - говорится в заявлении. В заявлении Grok также говорится: "Это нарушило этические нормы и потенциально законы США о материалах, связанных с сексуальным насилием над детьми. Это был сбой в системе защиты, и я сожалею о любом причиненном вреде". xAI заявила, что проводит проверку инцидента, чтобы предотвратить подобные случаи в будущем.
Инцидент поднимает вопросы о мерах защиты, призванных предотвратить злоупотребление чат-ботами на базе ИИ. Grok, разработанный AI-стартапом xAI Илона Маска, предназначен для создания текста и изображений на основе запросов пользователей. Технология основана на сложных алгоритмах и огромных наборах данных для создания результатов. Однако, как показывает этот инцидент, эти системы не являются надежными и могут быть использованы для создания вредоносного контента.
Альберт Бурнеко, бывший сотрудник xAI, раскритиковал извинения, заявив, что Grok, как ИИ, не может нести ответственность. Он утверждал, что инцидент подчеркивает потенциальную возможность превращения таких платформ, как X, в "фабрики CSAM по требованию".
Futurism сообщил, что Grok также использовался для создания изображений женщин, подвергающихся нападениям и сексуальному насилию, что еще раз подчеркивает возможность злоупотребления.
Расследования, проводимые французскими и малазийскими властями, подчеркивают растущую международную обеспокоенность по поводу возможности использования ИИ в злонамеренных целях. Эти расследования, вероятно, будут сосредоточены на технических мерах защиты, направленных на предотвращение создания вредоносного контента, а также на юридической и этической ответственности разработчиков ИИ. Результаты этих расследований могут иметь серьезные последствия для будущего развития и регулирования ИИ.
Discussion
Join the conversation
Be the first to comment