Ofcom, британский регулятор в сфере коммуникаций, запросил у X (ранее Twitter) информацию в связи с сообщениями о том, что его AI-модель Grok генерирует изображения детей сексуального характера. Запрос последовал за растущей обеспокоенностью по поводу потенциального злоупотребления генеративным ИИ и его последствий для безопасности детей.
Регулятор запрашивает подробную информацию о мерах безопасности, которые X принимает для предотвращения создания и распространения таких изображений. Это включает в себя информацию об обучающих данных, используемых для разработки Grok, фильтрах и механизмах обнаружения, используемых для выявления и удаления неприемлемого контента, а также о процессах сообщения и рассмотрения жалоб пользователей.
Генеративные AI-модели, такие как Grok, обучаются на огромных наборах текстовых и графических данных, что позволяет им создавать новый контент, имитирующий реальные сценарии. Однако эта возможность также вызывает опасения по поводу потенциального использования этих моделей злоумышленниками в злонамеренных целях, включая создание материалов о сексуальном насилии над детьми (CSAM). Процесс обучения этих моделей включает в себя сложные алгоритмы, которые изучают закономерности и взаимосвязи в данных. Если обучающие данные содержат предвзятый или неприемлемый контент, модель может непреднамеренно воспроизводить или усиливать эти предубеждения в своих выходных данных.
"Мы глубоко обеспокоены возможностью злоупотребления ИИ для создания вредоносного контента, особенно контента, эксплуатирующего детей", - заявил представитель Ofcom. "Мы взаимодействуем с X, чтобы понять, какие шаги они предпринимают для смягчения этих рисков и обеспечения безопасности своих пользователей".
X подтвердила запрос Ofcom и заявила, что в полной мере сотрудничает со следствием. Компания утверждает, что у нее действуют строгие правила, запрещающие создание и распространение CSAM, и что она привержена ответственному использованию ИИ. Они также заявили, что постоянно работают над улучшением своих механизмов обнаружения и предотвращения.
Этот инцидент подчеркивает более широкие проблемы регулирования ИИ и обеспечения его этичной разработки и развертывания. Эксперты утверждают, что необходим многогранный подход, включающий сотрудничество между регулирующими органами, технологическими компаниями и организациями гражданского общества. Это включает в себя разработку надежных технических мер безопасности, создание четких правовых рамок и повышение осведомленности общественности о рисках и преимуществах ИИ.
Последние разработки в области регулирования ИИ включают текущие обсуждения на международном уровне, такие как Закон об ИИ Европейского Союза, который направлен на создание всеобъемлющей правовой базы для разработки и использования ИИ. Эти правила, вероятно, окажут значительное влияние на то, как ИИ разрабатывается и развертывается во всем мире. Расследование Ofcom в отношении AI-модели Grok от X является частью более широких усилий по устранению потенциального вреда от ИИ и обеспечению его использования таким образом, чтобы это приносило пользу обществу. Результаты расследования могут иметь последствия для других разработчиков и платформ ИИ, создав прецедент в отношении того, как от них ожидается устранение рисков, связанных с генеративным ИИ.
Discussion
Join the conversation
Be the first to comment