Даунинг-стрит, 10 выразила одобрение сообщениям о том, что X, ранее известная как Twitter, предпринимает шаги для решения проблемы дипфейков, созданных с использованием Grok, ее модели искусственного интеллекта. Этот шаг предпринят на фоне растущей обеспокоенности по поводу потенциального злоупотребления контентом, сгенерированным ИИ, для распространения дезинформации и пропаганды.
Положительная реакция правительства отражает более широкий курс на ответственную разработку и внедрение ИИ. "Мы приветствуем любые усилия по смягчению рисков, связанных с дипфейками, сгенерированными ИИ", - заявил представитель правительства. "Крайне важно, чтобы технологические компании принимали упреждающие меры для обеспечения того, чтобы их технологии не использовались в злонамеренных целях".
Дипфейки, образованные от слов "deep learning" (глубокое обучение) и "fake" (подделка), представляют собой синтетические медиа, в которых человек на существующем изображении или видео заменяется на кого-то другого. Grok, большая языковая модель X, способна генерировать реалистичный текст и изображения, что вызывает опасения, что ее можно использовать для создания убедительного, но сфабрикованного контента. Эта технология основана на сложных алгоритмах, включая генеративно-состязательные сети (GAN), для изучения и воспроизведения закономерностей из существующих данных. GAN включают в себя две нейронные сети, генератор и дискриминатор, которые конкурируют друг с другом для получения все более реалистичных результатов.
Конкретные меры, которые, как сообщается, X реализует для борьбы с дипфейками, сгенерированными Grok, не были полностью раскрыты. Однако отраслевые эксперты предполагают, что они могут включать в себя нанесение водяных знаков на контент, сгенерированный ИИ, разработку инструментов обнаружения для выявления дипфейков и внедрение более строгой политики модерации контента. Нанесение водяных знаков предполагает встраивание тонкого, часто незаметного, сигнала в изображение или видео, чтобы указать, что оно было создано ИИ. Инструменты обнаружения используют алгоритмы машинного обучения для анализа медиа и выявления характерных признаков манипуляции.
Рост числа дипфейков представляет собой серьезную проблему для доверия и авторитета в цифровую эпоху. Эксперты предупреждают, что эти сфабрикованные видео и изображения могут быть использованы для манипулирования общественным мнением, нанесения ущерба репутации и даже подстрекательства к насилию. Потенциальное влияние на выборы и политический дискурс вызывает особую обеспокоенность.
Другие платформы социальных сетей и разработчики ИИ также борются с проблемой дипфейков. Такие компании, как Meta и Google, вложили значительные средства в исследования и разработки для обнаружения и удаления манипулируемых медиа со своих платформ. Partnership on AI, консорциум технологических компаний, ученых и организаций гражданского общества, работает над разработкой этических принципов и передовых методов разработки ИИ.
Текущий статус усилий X по борьбе с дипфейками Grok остается неясным. Ожидается, что компания опубликует более подробную информацию в ближайшие недели. Правительство заявило, что продолжит внимательно следить за ситуацией и сотрудничать с технологическими компаниями для обеспечения ответственной разработки и внедрения технологий ИИ.
Discussion
Join the conversation
Be the first to comment