На Даунинг-стрит, 10 подтвердили сообщения о том, что X, ранее известная как Twitter, предпринимает шаги для решения проблемы дипфейков, созданных с использованием Grok, ее модели искусственного интеллекта. Этот шаг предпринят на фоне растущей обеспокоенности по поводу потенциального злоупотребления контентом, созданным ИИ, для распространения дезинформации и влияния на общественное мнение.
Представитель офиса премьер-министра заявил, что правительство приветствует любые усилия социальных сетей по смягчению рисков, связанных с дипфейками. «Мы четко заявили о необходимости того, чтобы технологические компании несли ответственность за контент, размещенный на их платформах, особенно когда речь идет о материалах, созданных ИИ, которые могут быть использованы для обмана или введения в заблуждение», — сказал представитель.
Дипфейки — это синтетические медиа, в которых человек на существующем изображении или видео заменяется чьим-то другим подобием. Обычно это достигается с помощью сложных методов машинного обучения, в частности алгоритмов глубокого обучения, отсюда и название. Grok, модель ИИ от X, представляет собой большую языковую модель (LLM), аналогичную сериям GPT от OpenAI или Gemini от Google. LLM обучаются на огромных объемах текстовых данных, что позволяет им генерировать человекоподобный текст, переводить языки и создавать различные виды креативного контента, включая базовый текст для приложений дипфейков.
Конкретные меры, которые, как сообщается, X внедряет для борьбы с дипфейками, созданными Grok, не были полностью раскрыты. Однако отраслевые аналитики предполагают, что они могут включать в себя усовершенствованные алгоритмы обнаружения контента, более строгие процессы проверки пользователей и более четкую политику маркировки контента, созданного ИИ. Алгоритмы обнаружения контента анализируют медиа на предмет явных признаков манипуляции, таких как несоответствия в освещении, неестественные движения лица или артефакты, появившиеся в процессе создания дипфейка.
Рост доступности инструментов ИИ, таких как Grok, снизил порог входа для создания дипфейков, что облегчило злоумышленникам создание и распространение убедительного, но сфабрикованного контента. Это создает серьезную проблему для информационной экосистемы, потенциально подрывая доверие к законным источникам новостей и институтам.
Правительство Великобритании активно рассматривает нормативно-правовую базу для ИИ, включая меры по устранению рисков, связанных с дипфейками. Закон о безопасности в Интернете, который недавно вступил в силу, возлагает на платформы социальных сетей обязанность заботиться о защите пользователей от незаконного и вредоносного контента, который потенциально может быть истолкован как включающий определенные типы дипфейков.
X еще не опубликовала официальное заявление с подробным изложением своих планов. Ожидается, что компания предоставит дополнительную информацию о своем подходе к борьбе с дипфейками, связанными с Grok, в ближайшие недели. Эффективность мер X будет внимательно отслеживаться политиками, регулирующими органами и общественностью, поскольку дебаты об ответственном развитии и развертывании ИИ продолжаются.
Discussion
Join the conversation
Be the first to comment