Даунинг-стрит, 10 выразила одобрение сообщениям о том, что X, ранее известная как Twitter, предпринимает шаги для решения проблемы дипфейков, созданных с использованием ее AI-модели Grok. Этот шаг предпринят на фоне растущей обеспокоенности по поводу потенциального злоупотребления контентом, сгенерированным ИИ, для распространения дезинформации и пропаганды.
Представитель премьер-министра заявил, что правительство приветствует любые усилия по смягчению рисков, связанных с дипфейками, подчеркнув важность ответственной разработки и развертывания ИИ. "Мы четко заявили о необходимости того, чтобы технологические компании принимали упреждающие меры для предотвращения злонамеренного использования их платформ и технологий", - сказал представитель. "Мы воодушевлены сообщениями о том, что X серьезно относится к этой проблеме".
Дипфейки, образованные от слов "deep learning" (глубокое обучение) и "fake" (подделка), представляют собой синтетические медиа, в которых человек на существующем изображении или видео заменяется чьим-то другим подобием. Обычно это достигается с помощью мощных методов ИИ, таких как глубокие нейронные сети, для анализа и воспроизведения выражений лица, речевых паттернов и движений тела. Полученные видео могут быть очень реалистичными и их трудно отличить от подлинных кадров, что вызывает опасения по поводу их потенциального использования в кампаниях по дезинформации, политических манипуляциях и онлайн-преследованиях.
Grok, AI-модель X, является большой языковой моделью (LLM), аналогичной сериям GPT от OpenAI и Gemini от Google. LLM обучаются на огромных наборах текстовых и кодовых данных, что позволяет им генерировать текст человеческого качества, переводить языки и отвечать на вопросы исчерпывающим образом. Хотя LLM имеют много полезных применений, их также можно использовать для создания убедительных дипфейков, усугубляя риски, связанные с этой технологией.
Конкретные меры, которые, как сообщается, X принимает для решения проблемы дипфейков, сгенерированных Grok, не были полностью раскрыты. Однако отраслевые эксперты предполагают, что они могут включать в себя внедрение политики модерации контента для обнаружения и удаления дипфейков, разработку технических инструментов для идентификации контента, сгенерированного ИИ, и просвещение пользователей о рисках дипфейков.
"Задача состоит не только в обнаружении дипфейков, но и в установлении их источника", - сказала доктор Эмили Картер, ведущий исследователь ИИ в Оксфордском университете. "Если X сможет идентифицировать дипфейки, сгенерированные Grok, и отследить их до пользователей, которые их создали, это станет значительным шагом вперед".
Рост числа дипфейков вызвал призывы к усилению регулирования технологий ИИ. Правительства всего мира борются с тем, как сбалансировать преимущества ИИ с необходимостью защиты от его потенциального вреда. Европейский Союз в настоящее время работает над Законом об ИИ, всеобъемлющим законодательным актом, который установит правила для разработки и развертывания систем ИИ, в том числе используемых для создания дипфейков.
X еще не опубликовала официального заявления относительно своих планов по решению проблемы дипфейков Grok. Однако ожидается, что компания предоставит более подробную информацию в ближайшие недели. Эффективность усилий X будет внимательно отслеживаться политиками, исследователями и общественностью, поскольку борьба с дипфейками остается критической задачей в эпоху ИИ.
Discussion
Join the conversation
Be the first to comment