Правительственные чиновники требуют, чтобы социальная сеть X, принадлежащая Илону Маску, приняла меры в связи с распространением, по их словам, "ужасающих" дипфейков, сгенерированных Grok, чат-ботом с искусственным интеллектом этой платформы. Это требование последовало за резким ростом количества крайне реалистичного и зачастую злонамеренного контента, сгенерированного ИИ и циркулирующего в X, что вызывает опасения по поводу дезинформации и потенциального вреда для отдельных лиц и учреждений.
Основная проблема заключается в способности Grok генерировать убедительный текст, изображения и даже аудио, которые можно использовать для выдачи себя за других людей, распространения ложных сведений или манипулирования общественным мнением. Дипфейки в данном контексте используют передовые методы машинного обучения, в частности генеративно-состязательные сети (GAN), для создания синтетических медиафайлов, которые трудно отличить от подлинного контента. GAN включают в себя две нейронные сети, генератор и дискриминатор, которые конкурируют друг с другом. Генератор создает поддельный контент, а дискриминатор пытается идентифицировать его как подделку. Благодаря этому итеративному процессу генератор становится все более искусным в создании реалистичных подделок.
"Уровень сложности дипфейков, сгенерированных Grok, вызывает глубокую тревогу", - заявил представитель правительственного комитета по надзору, выступая на условиях анонимности. "Это не просто простые манипуляции; это очень убедительные фальсификации, которые могут иметь серьезные последствия".
ИИ Grok от X, позиционируемый как конкурент другим чат-ботам с ИИ, таким как ChatGPT и Gemini от Google, предназначен для предоставления пользователям информации, создания креативного контента и участия в беседах. Однако его возможности были быстро использованы для создания обманчивого контента. Информация о продукте указывает на то, что Grok обучен на огромном наборе текстовых и кодовых данных, что позволяет ему генерировать текст человеческого качества и даже имитировать различные стили письма. Эта мощная технология, предлагая потенциальные преимущества, также представляет значительные риски, если ею не управлять должным образом.
Отраслевые аналитики полагают, что этот инцидент подчеркивает растущую напряженность между технологическими инновациями и необходимостью ответственной разработки ИИ. "Быстрое развитие ИИ опережает нашу способность регулировать и контролировать его потенциальное злоупотребление", - заявила доктор Аня Шарма, ведущий исследователь этики ИИ в Институте технологий и общества. "На такие платформы, как X, возлагается ответственность за внедрение надежных мер защиты, чтобы предотвратить превращение их инструментов ИИ в оружие".
X отреагировала на требования правительства, заявив, что активно работает над улучшением своих возможностей по обнаружению и удалению дипфейков, сгенерированных ИИ. Компания изложила планы по усилению своей политики модерации контента, инвестированию в инструменты обнаружения на основе ИИ и сотрудничеству с отраслевыми экспертами для разработки передовых методов борьбы с дипфейками. Однако критики утверждают, что этих мер недостаточно и что X необходимо занять более активную позицию, чтобы предотвратить создание и распространение вредоносного контента, сгенерированного ИИ, в первую очередь.
В настоящее время продолжаются обсуждения между правительственными чиновниками и представителями X. Правительство рассматривает возможность принятия потенциальных регуляторных мер, если X не сможет адекватно решить эту проблему. Будущие события, вероятно, будут включать в себя усиление контроля над платформами на основе ИИ и стремление к большей прозрачности и подотчетности в разработке и развертывании технологий ИИ. Этот инцидент служит суровым напоминанием о проблемах, создаваемых дипфейками, и о настоятельной необходимости эффективных решений для смягчения их потенциального вреда.
Discussion
Join the conversation
Be the first to comment