Правительственные чиновники требуют, чтобы социальная сеть X, принадлежащая Илону Маску, приняла меры в связи с распространением "ужасающих" дипфейков, сгенерированных Grok, чат-ботом с искусственным интеллектом этой платформы. Это требование последовало за резким ростом количества манипулированного аудио- и видеоконтента, циркулирующего в X, что вызывает опасения по поводу дезинформации и потенциального вреда для отдельных лиц и учреждений.
Озабоченность правительства сосредоточена на способности Grok генерировать реалистичные и убедительные дипфейки, которые представляют собой синтетические медиа, в которых человек на существующем изображении или видео заменяется чьим-то другим подобием. Эти дипфейки, как заявили официальные лица, используются для распространения ложных нарративов, выдачи себя за общественных деятелей и потенциального влияния на общественное мнение. "Изощренность этих дипфейков, сгенерированных Grok, вызывает глубокую тревогу", - заявил представитель Департамента технологических стандартов в опубликованном заявлении. "Мы требуем, чтобы X немедленно приняла меры для смягчения риска, который они представляют для общественности".
Grok, запущенный AI-компанией Маска xAI, представляет собой большую языковую модель (LLM), предназначенную для ответов на вопросы и генерации текста в разговорном стиле. LLM обучаются на огромных наборах текстовых и кодовых данных, что позволяет им понимать и генерировать человекоподобный язык. Хотя xAI рекламировала потенциал Grok для образования и развлечений, критики предупреждали о возможности его неправильного использования, особенно при создании дезинформации.
Действующая политика X запрещает создание и распространение дипфейков, предназначенных для обмана или введения в заблуждение, но официальные лица утверждают, что механизмы обеспечения соблюдения платформы неадекватны. Они указывают на быстрое распространение нескольких громких дипфейков в X в последние недели, в том числе одного, который ложно изображал видного политика, делающего подстрекательские замечания. "Их нынешних усилий по модерации явно недостаточно для решения масштаба и сложности этой проблемы", - добавил представитель Департамента технологических стандартов.
Требование правительства оказывает давление на X с целью усиления возможностей обнаружения и удаления дипфейков. Возможные решения включают внедрение более сложных инструментов обнаружения на основе искусственного интеллекта, увеличение количества людей, занимающихся модерацией, и сотрудничество с независимыми организациями по проверке фактов. Ситуация также высвечивает более широкие проблемы регулирования контента, созданного искусственным интеллектом, и балансирования свободы слова с необходимостью защиты от дезинформации.
Отраслевые аналитики предполагают, что этот инцидент может привести к усилению контроля над AI-компаниями и социальными сетями, что потенциально приведет к ужесточению правил и большей ответственности за контент, которым делятся на их платформах. "Это тревожный звонок для всей отрасли", - сказала доктор Аня Шарма, ведущий исследователь этики искусственного интеллекта в Институте технологической политики. "Нам необходимо разработать надежные гарантии для предотвращения неправильного использования AI-технологий и обеспечения их ответственного использования".
X признала озабоченность правительства и заявила, что "активно работает" над улучшением своих возможностей обнаружения и удаления дипфейков. Компания еще не объявила о конкретных мерах, которые она предпримет, но официальные лица указали, что ожидают подробный план действий в течение следующих двух недель. Исход этой ситуации может иметь серьезные последствия для будущего регулирования искусственного интеллекта и борьбы с онлайн-дезинформацией.
Discussion
Join the conversation
Be the first to comment