Даунинг-стрит, 10 выразила одобрение сообщениям о том, что X, ранее известная как Twitter, предпринимает шаги для решения проблемы дипфейков, созданных с использованием ее AI-модели Grok. Офис премьер-министра признал потенциальную возможность злоупотребления контентом, сгенерированным ИИ, и подчеркнул важность того, чтобы платформы брали на себя ответственность за снижение рисков.
Дипфейки, образованные от слов "deep learning" (глубокое обучение) и "fake" (подделка), представляют собой синтетические медиа, в которых человек на существующем изображении или видео заменяется чьим-то другим подобием. Эта технология использует сложный искусственный интеллект, в частности алгоритмы глубокого обучения, для создания очень реалистичного, но сфабрикованного контента. Беспокойство вызывает то, что эти дипфейки могут быть использованы для распространения дезинформации, манипулирования общественным мнением и нанесения ущерба репутации.
Grok, AI-модель X, является большой языковой моделью (LLM), аналогичной моделям GPT от OpenAI и Gemini от Google. LLM обучаются на огромных наборах текстовых и кодовых данных, что позволяет им генерировать текст человеческого качества, переводить языки, писать различные виды креативного контента и отвечать на ваши вопросы в информативном ключе. Однако те же возможности, которые делают LLM полезными, могут быть использованы для создания вредоносного контента, включая дипфейки.
Хотя подробности конкретных мер X по борьбе с дипфейками, созданными Grok, остаются ограниченными, отраслевые аналитики предполагают, что платформа может внедрять такие методы, как нанесение водяных знаков на контент, сгенерированный ИИ, разработка алгоритмов для обнаружения дипфейков и установление четкой политики против создания и распространения обманчивых синтетических медиа. Нанесение водяных знаков предполагает внедрение тонкого, часто невидимого, маркера в сгенерированный контент, который идентифицирует его как сгенерированный ИИ. Алгоритмы обнаружения анализируют медиа на предмет характерных признаков манипуляции, таких как несоответствия в чертах лица или неестественные движения.
Распространение дипфейков представляет собой серьезную проблему для информационной экосистемы. Эксперты предупреждают, что растущая сложность этих технологий затрудняет различение реального и поддельного контента, что потенциально подрывает доверие к средствам массовой информации и институтам. Правительство Великобритании активно изучает нормативно-правовую базу для ИИ, уделяя особое внимание обеспечению ответственной разработки и развертывания этой технологии.
Шаг X по борьбе с дипфейками соответствует более широкой тенденции в технологической индустрии, где компании борются с этическими и социальными последствиями ИИ. Другие крупные платформы, включая Meta и Google, также объявили об инициативах по борьбе с распространением дипфейков и других форм дезинформации, сгенерированной ИИ.
Правительство будет внимательно следить за прогрессом X в решении проблемы дипфейков Grok и ожидает, что платформа предпримет активные шаги для защиты пользователей от потенциального вреда этой технологии, говорится в заявлении, опубликованном представителем Даунинг-стрит. Дальнейшие обновления об усилиях X ожидаются в ближайшие недели.
Discussion
Join the conversation
Be the first to comment