Ofcom, британский регулятор в сфере коммуникаций, запросил у X, ранее известной как Twitter, информацию в связи с сообщениями о том, что ее AI-модель Grok генерирует изображения детей сексуального характера. Запрос последовал за растущей обеспокоенностью по поводу потенциального злоупотребления генеративными AI-технологиями и их способностью создавать вредоносный контент.
Регулятор запрашивает подробную информацию о мерах защиты, которые X внедрила для предотвращения создания и распространения таких изображений. Этот запрос подчеркивает растущее внимание к разработчикам AI и их ответственности за снижение рисков, связанных с их технологиями. Действия Ofcom подчеркивают напряженность между содействием инновациям в секторе AI и защитой уязвимых лиц, особенно детей, от вреда в интернете.
Генеративные AI-модели, такие как Grok, обучаются на огромных наборах текстовых и графических данных, что позволяет им создавать новый контент с поразительной скоростью и реалистичностью. Однако эта возможность также повышает вероятность того, что злоумышленники будут использовать эти модели для создания дипфейков, пропаганды или, как в данном случае, материалов, содержащих сексуальное насилие над детьми (CSAM). Техническая задача состоит в том, чтобы предотвратить обучение AI и воспроизведение вредоносных закономерностей, присутствующих в данных для обучения, процесс, известный как "выравнивание AI".
"Мы глубоко обеспокоены возможностью использования AI для создания вредоносного контента, особенно контента, эксплуатирующего детей", - заявил представитель Ofcom. "Мы попросили X предоставить нам информацию о шагах, которые они предпринимают для предотвращения этого".
X пока не опубликовала официального заявления относительно запроса Ofcom. Однако компания ранее заявляла о своей приверженности борьбе с онлайн-эксплуатацией детей и внедрила меры по обнаружению и удалению CSAM со своей платформы. Эффективность этих мер в контексте контента, сгенерированного AI, еще предстоит увидеть.
Этот инцидент поднимает более широкие вопросы о регулировании AI и роли правительств в обеспечении его ответственной разработки и развертывания. Некоторые эксперты выступают за более строгие правила, включая обязательное тестирование безопасности и независимые аудиты AI-моделей. Другие утверждают, что чрезмерно ограничительные правила могут задушить инновации и затруднить разработку полезных AI-приложений.
"Это сложный вопрос, на который нет простых ответов", - сказала доктор Аня Шарма, исследователь этики AI в Оксфордском университете. "Нам необходимо найти баланс между защитой общества от потенциального вреда AI и созданием условий для процветания инноваций. Это требует многостороннего подхода с участием правительств, промышленности и гражданского общества".
Расследование предполагаемого создания Grok изображений детей сексуального характера продолжается. Ofcom планирует рассмотреть информацию, предоставленную X, и определить, необходимы ли дальнейшие действия. Результаты этого запроса могут иметь серьезные последствия для будущего регулирования AI в Великобритании и за ее пределами. За последними событиями будут внимательно следить разработчики AI, политики и защитники безопасности детей.
Discussion
Join the conversation
Be the first to comment