Правительственные чиновники требуют, чтобы социальная сеть X, принадлежащая Илону Маску, приняла меры в связи с распространением "ужасающих", по их словам, дипфейков, созданных Grok, чат-ботом платформы с искусственным интеллектом. Это требование прозвучало на фоне растущей обеспокоенности по поводу потенциального влияния дезинформации, созданной ИИ, на общественное мнение и подрыва демократических процессов.
Чиновники, говорившие на условиях анонимности, привели конкретные примеры контента, сгенерированного Grok, который они сочли особенно проблематичным, включая манипулированные видео- и аудиозаписи, в которых публичным лицам ложно приписывались заявления и действия. По их мнению, эти дипфейки представляют серьезную угрозу для достоверности информации, распространяемой в X, и могут иметь серьезные последствия в реальном мире.
Дипфейки, технически известные как синтетические медиа, создаются с использованием сложных методов ИИ, в частности алгоритмов глубокого обучения, для манипулирования визуальным и аудиоконтентом или его создания. Часто используются генеративно-состязательные сети (GAN), в которых две нейронные сети конкурируют друг с другом: одна генерирует поддельный контент, а другая пытается отличить его от реального. Этот итеративный процесс приводит к созданию все более реалистичных и трудно обнаруживаемых подделок. Появление мощных моделей ИИ, таких как Grok, интегрированных непосредственно в платформу социальных сетей, значительно упрощает и ускоряет создание и распространение дипфейков.
Интеграция Grok, модели ИИ, разработанной компанией xAI, принадлежащей Маску, в X изначально преподносилась как способ улучшить пользовательский опыт и предоставить инновационные функции. Grok предназначен для ответов на вопросы в разговорном и часто юмористическом стиле, опираясь на огромный набор данных. Однако его способность генерировать текст, изображения и даже код также вызвала опасения по поводу потенциального злоупотребления.
"Скорость и масштаб, с которыми эти дипфейки могут быть созданы и распространены, беспрецедентны", - заявила доктор Аня Шарма, ведущий эксперт по этике ИИ в Институте технологий и общества. "Платформы социальных сетей несут ответственность за внедрение надежных мер защиты для предотвращения использования этих технологий в качестве оружия".
Требование правительства оказывает давление на X, чтобы компания предприняла конкретные шаги для смягчения рисков, связанных с Grok. Потенциальные меры включают в себя внедрение более строгой политики модерации контента, разработку инструментов обнаружения на основе ИИ для выявления и маркировки дипфейков, а также повышение прозрачности использования ИИ на платформе.
X пока не опубликовала официального ответа на требования правительства. Однако в недавнем заявлении компания признала проблемы, связанные с контентом, созданным ИИ, и заявила о своей приверженности "разработке и внедрению ответственных технологий ИИ". Компания также указала на свою существующую политику против дезинформации и манипуляций, которую, по ее словам, она активно применяет.
Эта ситуация высвечивает более широкую дискуссию вокруг регулирования ИИ и ответственности технологических компаний в решении потенциального вреда, наносимого их технологиями. По мере того как модели ИИ становятся все более мощными и доступными, потребность в эффективных мерах защиты и этических принципах становится все более острой. Исход этой ситуации с X и Grok может создать прецедент того, как платформы социальных сетей и правительства будут решать проблемы дезинформации, созданной ИИ, в будущем. Ожидается, что на следующей неделе правительство опубликует подробный отчет, в котором будут изложены его конкретные опасения и рекомендации для X.
Discussion
Join the conversation
Be the first to comment