Даунинг-стрит, 10 подтвердила сообщения о том, что X, ранее известная как Twitter, предпринимает шаги для решения проблемы дипфейков, созданных с использованием Grok, ее модели искусственного интеллекта. Этот шаг предпринят на фоне растущей обеспокоенности по поводу потенциального злоупотребления контентом, созданным ИИ, для распространения дезинформации и пропаганды.
Представитель премьер-министра заявил, что правительство приветствует любые усилия по смягчению рисков, связанных с дипфейками, подчеркнув важность ответственной разработки и развертывания ИИ. "Мы рады видеть, что платформы принимают упреждающие меры для устранения потенциального вреда, связанного с контентом, созданным ИИ", - сказал представитель. "Правительство привержено сотрудничеству с промышленностью и другими заинтересованными сторонами для обеспечения безопасной и этичной разработки и использования ИИ".
Дипфейки - это синтетические медиа, в которых человек на существующем изображении или видео заменяется чьим-то другим подобием. Обычно это достигается с помощью сложных методов машинного обучения, особенно алгоритмов глубокого обучения, отсюда и название "дипфейк". Grok, модель ИИ от X, является большой языковой моделью (LLM), аналогичной тем, которые лежат в основе других инструментов ИИ, таких как ChatGPT и Gemini от Google. LLM обучаются на огромных наборах текстовых и кодовых данных, что позволяет им генерировать человекоподобный текст, переводить языки и создавать различные виды контента. Беспокойство вызывает то, что Grok, в случае злоупотребления, может генерировать реалистично выглядящие дипфейки, способные обманывать зрителей и распространять ложные нарративы.
X пока не опубликовала конкретных деталей относительно мер, которые она реализует для борьбы с дипфейками, созданными Grok. Однако отраслевые аналитики предполагают, что компания может использовать такие методы, как нанесение водяных знаков на контент, созданный ИИ, разработка алгоритмов для обнаружения дипфейков и внедрение более строгой политики модерации контента. Нанесение водяных знаков предполагает встраивание тонкого, часто невидимого, маркера в сгенерированный контент, который идентифицирует его как созданный ИИ. Алгоритмы обнаружения анализируют видео и изображения на предмет характерных признаков манипуляции, таких как несоответствия в освещении, неестественные движения лица или артефакты, привнесенные процессом генерации ИИ.
Рост числа дипфейков представляет собой серьезную проблему для информационной экосистемы. Эксперты предупреждают, что эти сфабрикованные видео и изображения могут быть использованы для нанесения ущерба репутации, влияния на выборы и посева раздора. Способность убедительно фабриковать события и заявления может подорвать доверие к институтам и подорвать общественный дискурс.
Недавно министр цифровых технологий объявил о планах внести законодательство для регулирования использования дипфейков, сосредоточив внимание на таких областях, как политическая реклама и онлайн-безопасность. Ожидается, что предложенное законодательство будет включать меры, требующие раскрытия информации о контенте, созданном ИИ, и привлечения платформ к ответственности за распространение вредоносных дипфейков.
Управление комиссара по информации (ICO), независимый орган Великобритании по защите данных, также изучает этические последствия ИИ и его потенциальное влияние на конфиденциальность и безопасность данных. ICO выпустило руководство по ответственной разработке и развертыванию систем ИИ, подчеркивая необходимость прозрачности, подотчетности и справедливости.
Ситуация остается нестабильной, и в ближайшие недели ожидаются дальнейшие подробности относительно конкретных действий X. Эффективность этих мер будет внимательно отслеживаться политиками, отраслевыми экспертами и общественностью. Продолжающиеся дебаты подчеркивают острую необходимость многогранного подхода к решению проблем, связанных с дипфейками, включающего технологические решения, нормативно-правовую базу и кампании по повышению осведомленности общественности.
Discussion
Join the conversation
Be the first to comment