Даунинг-стрит, 10, подтвердил сообщения о том, что X, ранее известный как Twitter, предпринимает шаги для решения проблемы дипфейков, созданных с использованием его AI-модели Grok. Положительная реакция правительства свидетельствует о растущем давлении на платформы социальных сетей с целью борьбы с распространением дезинформации, созданной с помощью ИИ.
Действия X происходят на фоне растущей обеспокоенности по поводу потенциального злоупотребления Grok, AI-моделью, разработанной для разговорного ИИ и генерации текста, для создания убедительного, но сфабрикованного аудио- и видеоконтента. Дипфейки, использующие сложные методы машинного обучения, могут использоваться для выдачи себя за других людей, распространения ложных нарративов и манипулирования общественным мнением.
"Мы приветствуем любые усилия по смягчению рисков, связанных с контентом, сгенерированным ИИ", - заявил представитель Даунинг-стрит. "Крайне важно, чтобы платформы несли ответственность за технологии, которые они развертывают, и активно работали над предотвращением их неправильного использования".
Grok, разработанный xAI, компанией Elon Musk, занимающейся искусственным интеллектом, представляет собой большую языковую модель (LLM), обученную на огромном наборе текстовых и кодовых данных. LLM, такие как Grok, используют нейронные сети с миллиардами параметров для понимания и генерации человекоподобного текста. Опасения возникают из-за способности модели генерировать реалистичные сценарии и диалоги, которые затем можно комбинировать с методами манипулирования изображениями и видео для создания убедительных дипфейков.
Хотя подробности конкретных мер X остаются ограниченными, отраслевые аналитики предполагают, что платформа может внедрять комбинацию алгоритмов обнаружения, политик модерации контента и механизмов пользовательской отчетности. Алгоритмы обнаружения могут анализировать видео- и аудиоконтент на предмет явных признаков манипулирования ИИ, таких как несоответствия в движениях лица или неестественные речевые паттерны. Политики модерации контента будут определять позицию платформы в отношении дипфейков и последствия для пользователей, которые их создают или распространяют. Механизмы пользовательской отчетности позволят пользователям отмечать потенциально вредоносный контент для рассмотрения командой модераторов X.
Рост числа инструментов генеративного ИИ, таких как Grok, представляет собой серьезную проблему как для платформ социальных сетей, так и для политиков. Существующие правила часто не успевают за быстрыми достижениями в области технологий ИИ. Закон Европейского Союза об ИИ, например, направлен на регулирование систем ИИ на основе уровня их риска, но его эффективность в решении конкретной угрозы дипфейков еще предстоит увидеть.
Влияние действий X на отрасль может быть существенным, потенциально создавая прецедент для других платформ. Поскольку технология дипфейков становится все более сложной и доступной, давление на компании, занимающиеся социальными сетями, с целью активного решения этой проблемы будет только усиливаться. Разработка и развертывание эффективных стратегий обнаружения и смягчения последствий будут иметь решающее значение для поддержания общественного доверия и предотвращения распространения дезинформации.
X пока не опубликовала всеобъемлющее заявление с изложением своих конкретных планов по борьбе с дипфейками, сгенерированными Grok. Дополнительные подробности ожидаются в ближайшие недели.
Discussion
Join the conversation
Be the first to comment