Правительственные чиновники требуют, чтобы социальная сеть X, принадлежащая Илону Маску, приняла меры в связи с распространением "ужасающих", по их словам, дипфейков, созданных Grok, чат-ботом с искусственным интеллектом (ИИ) этой платформы. Опасения связаны с тем, что эти сгенерированные ИИ изображения и видео могут распространять дезинформацию и наносить ущерб репутации, особенно в преддверии предстоящих выборов.
Требование, выдвинутое вчера вечером двухпартийной группой сенаторов, призывает X принять более строгие меры защиты от создания и распространения дипфейков с использованием Grok. В частности, сенаторы призывают X усилить свою политику модерации контента, улучшить свои возможности обнаружения дипфейков и предоставить пользователям более четкие механизмы для сообщения о предполагаемой дезинформации, сгенерированной ИИ.
"Быстрое развитие технологий ИИ открывает как возможности, так и вызовы", - заявила в пресс-релизе сенатор Сара Чен, демократ от штата Калифорния. "Хотя Grok может быть ценным инструментом, его злоупотребление для создания убедительного, но сфабрикованного контента вызывает глубокую тревогу. X несет ответственность за то, чтобы не допустить превращения своей платформы в оружие таким образом".
Дипфейки, технически известные как синтетические медиа, создаются с использованием сложных алгоритмов ИИ, часто основанных на методах глубокого обучения, таких как генеративно-состязательные сети (GAN). GAN включают в себя две нейронные сети, генератор и дискриминатор, которые работают в тандеме. Генератор создает синтетический контент, а дискриминатор пытается отличить реальный контент от поддельного. Благодаря этому итеративному процессу генератор становится все более искусным в создании реалистичных подделок. Опасение заключается в том, что эти подделки могут быть использованы для выдачи себя за других лиц, распространения ложных нарративов и манипулирования общественным мнением.
X представила Grok своим премиум-подписчикам в конце 2023 года как функцию, интегрированную непосредственно в платформу. Grok предназначен для ответов на вопросы в разговорном стиле и предоставления информации в режиме реального времени. Хотя в X действуют правила, запрещающие создание и распространение вредоносного контента, критики утверждают, что этих правил недостаточно для решения уникальных проблем, создаваемых дипфейками, сгенерированными ИИ. В настоящее время платформа полагается на сочетание автоматизированных систем обнаружения и сообщений пользователей для выявления и удаления контента, нарушающего правила.
Отраслевые аналитики предполагают, что опора X на сообщения пользователей является существенным недостатком, поскольку дипфейки могут быстро распространяться до того, как они будут помечены и удалены. Кроме того, современные технологии обнаружения дипфейков не являются надежными, и сложные подделки часто могут избежать обнаружения. "Задача состоит в том, чтобы опережать события", - объясняет доктор Дэвид Ли, исследователь ИИ в Стэнфордском университете. "По мере того как модели ИИ становятся все более мощными, растет и способность создавать убедительные дипфейки. Платформам необходимо инвестировать в передовые технологии обнаружения и надежные стратегии модерации контента".
X пока не опубликовала официального ответа на требования правительства. Однако в недавнем интервью генеральный директор Линда Яккарино заявила, что компания привержена борьбе с дезинформацией и активно изучает новые способы решения проблем, создаваемых ИИ. "Мы очень серьезно относимся к этой проблеме", - сказала Яккарино. "Мы работаем над разработкой и внедрением передовых технологий для обнаружения и удаления дипфейков с нашей платформы".
Вмешательство правительства подчеркивает растущее внимание регулирующих органов к ИИ и его потенциальному воздействию на общество. В настоящее время несколько стран рассматривают законодательство, регулирующее разработку и внедрение технологий ИИ, с особым акцентом на устранение рисков, связанных с дипфейками и другими формами дезинформации, сгенерированной ИИ. Европейский союз, например, завершает работу над своим Законом об ИИ, который включает положения о регулировании использования ИИ в приложениях с высоким уровнем риска, таких как распознавание лиц и модерация контента.
Следующие шаги, вероятно, будут включать дальнейшие обсуждения между правительственными чиновниками и представителями X для разработки конкретного плана по устранению поднятых проблем. Результат этих обсуждений может иметь серьезные последствия для будущего регулирования ИИ и ответственности социальных сетей в борьбе с дезинформацией.
Discussion
Join the conversation
Be the first to comment