Официальные лица потребовали, чтобы социальная сеть X, принадлежащая Илону Маску, приняла меры в связи с распространением дипфейков, созданных Grok, чат-ботом платформы с искусственным интеллектом. Правительство сослалось на "ужасающие" случаи злоупотребления, выразив обеспокоенность по поводу дезинформации и потенциального вреда.
Требование, выдвинутое в среду Департаментом цифровой целостности (DDI), последовало за резким увеличением количества пользовательских жалоб, описывающих крайне реалистичные видео и изображения, сгенерированные ИИ и распространяемые в X. По данным DDI, эти дипфейки часто изображают общественных деятелей и используются для распространения ложных сведений или вредоносного контента.
"Мы глубоко обеспокоены возможностью использования Grok в качестве оружия", — заявила директор DDI Аня Шарма в своем заявлении для прессы. "Сама по себе технология не является вредной, но отсутствие надлежащих мер безопасности в X позволяет использовать ее в гнусных целях. Нам необходимы немедленные действия для смягчения этой угрозы".
Grok, чат-бот с искусственным интеллектом, разработанный компанией xAI, принадлежащей Маску, интегрирован в уровень подписки X Premium+. Он предназначен для ответов на вопросы, создания креативного контента и предоставления информации в режиме реального времени. Однако его способность генерировать реалистичные изображения и видео вызвала обеспокоенность по поводу потенциального злоупотребления.
Технические эксперты объясняют, что дипфейки используют сложные алгоритмы машинного обучения, в частности глубокие нейронные сети, для манипулирования визуальным и аудиоконтентом или его синтеза. Эти алгоритмы обучаются на огромных наборах данных изображений и видео, что позволяет им создавать убедительные подделки. Относительно низкая стоимость и растущая доступность этих технологий способствовали распространению дипфейков.
Требование DDI сосредоточено на нескольких ключевых областях, включая усиление политики модерации контента, улучшение алгоритмов обнаружения дипфейков и ужесточение протоколов проверки пользователей. Правительство также призывает к большей прозрачности в отношении использования контента, сгенерированного ИИ, на платформе.
X отреагировала на требование DDI заявлением, в котором признала обеспокоенность. "Мы привержены решению проблемы дипфейков на нашей платформе", — говорится в заявлении. "Мы активно работаем над разработкой и внедрением новых технологий для обнаружения и удаления вредоносного контента, сгенерированного ИИ. Мы также изучаем способы улучшения проверки пользователей и содействия ответственному использованию ИИ".
Отраслевые аналитики полагают, что этот инцидент подчеркивает растущие проблемы регулирования контента, сгенерированного ИИ. "Скорость развития технологий ИИ опережает нашу способность разрабатывать эффективные нормативные рамки", — сказал доктор Бен Картер, профессор этики ИИ в Стэнфордском университете. "Нам нужен многогранный подход, который предполагает сотрудничество между правительством, промышленностью и научными кругами для решения этих проблем".
DDI дала X две недели на представление подробного плана с изложением предлагаемых мер по решению проблемы дипфейков. Согласно DDI, несоблюдение этого требования может привести к штрафам или другим мерам регулирующего воздействия. Ситуация остается нестабильной, и в ближайшие дни ожидаются дальнейшие события по мере того, как X будет реагировать на требования правительства.
Discussion
Join the conversation
Be the first to comment