Ofcom, британский регулятор в сфере коммуникаций, запросил у X, ранее известной как Twitter, информацию в связи с сообщениями о том, что ее модель искусственного интеллекта Grok генерирует изображения детей сексуального характера. Этот запрос последовал за растущей обеспокоенностью по поводу потенциального злоупотребления искусственным интеллектом для создания вредоносного контента, особенно с участием несовершеннолетних.
Регулятор запрашивает подробную информацию о мерах защиты, которые X внедрила для предотвращения создания и распространения таких изображений, а также о том, как компания реагирует на эти обвинения. Ofcom имеет право штрафовать компании, которые не защищают пользователей от вредоносного контента, и этот запрос сигнализирует о серьезной обеспокоенности по поводу соблюдения компанией X британских правил онлайн-безопасности.
Grok, чат-бот X на основе искусственного интеллекта, является большой языковой моделью (LLM), типом ИИ, обученным на огромных объемах текстовых данных. LLM могут генерировать текст, переводить языки и отвечать на вопросы, но их также можно использовать для создания изображений с помощью методов генерации изображений с использованием ИИ. Опасение вызывает то, что злоумышленники могут использовать эти возможности для создания материалов, содержащих сексуальное насилие над детьми (CSAM).
"Мы глубоко обеспокоены возможностью злоупотребления ИИ таким образом", - заявил представитель Ofcom. "Мы просим X предоставить нам информацию о шагах, которые они предпринимают для предотвращения этого и для обеспечения безопасности детей в Интернете".
Это событие подчеркивает более широкие общественные проблемы, связанные с быстро развивающимися технологиями ИИ. Хотя ИИ предлагает многочисленные преимущества, он также представляет риски, включая возможность злоупотребления при создании и распространении вредоносного контента. Эксперты подчеркивают необходимость надежных мер защиты и этических принципов для смягчения этих рисков.
"Способность ИИ генерировать реалистичные изображения вызывает серьезные опасения по поводу создания и распространения CSAM", - заявила доктор Джоанна Брайсон, профессор этики и технологий в Hertie School в Берлине. "Крайне важно, чтобы компании, разрабатывающие и внедряющие технологии ИИ, предпринимали активные шаги для предотвращения их злоупотребления и для защиты детей".
X пока не опубликовала официального заявления относительно запроса Ofcom. Однако ранее компания заявляла о своей приверженности борьбе с CSAM на своей платформе. Расследование продолжается, и Ofcom оценит ответ X, чтобы определить, необходимы ли дальнейшие действия. Результаты этого запроса могут иметь серьезные последствия для регулирования ИИ и онлайн-безопасности в Великобритании и за ее пределами.
Discussion
Join the conversation
Be the first to comment