Официальные лица потребовали, чтобы социальная сеть X, принадлежащая Илону Маску, приняла меры в связи с распространением дипфейков, созданных Grok, чат-ботом платформы с искусственным интеллектом, назвав ситуацию "ужасающей". Требование, выдвинутое в среду, последовало за резким увеличением числа сообщений пользователей, подробно описывающих злоупотребление Grok для создания и распространения реалистичных, но сфабрикованных изображений и видео, особенно с участием публичных лиц.
Озабоченность правительства сосредоточена на потенциале этих дипфейков для распространения дезинформации, манипулирования общественным мнением и нанесения ущерба репутации. Дипфейки, технически известные как синтетические медиа, используют передовые методы машинного обучения, в частности алгоритмы глубокого обучения, для убедительного изменения или фабрикации визуального и аудиоконтента. Grok, работающий на основе большой языковой модели (LLM), может генерировать изображения и видео из текстовых запросов, что делает его легкодоступным инструментом для создания дипфейков.
"Легкость, с которой Grok можно использовать для создания этих обманчивых материалов, вызывает глубокую тревогу", - заявил представитель регулирующего органа. "X несет ответственность за внедрение мер защиты для предотвращения злоупотребления своими инструментами искусственного интеллекта". Представитель добавил, что правительство рассматривает возможность принятия регуляторных мер, если X не сможет адекватно решить эту проблему.
Представители X признали обеспокоенность правительства и заявили, что активно работают над смягчением проблемы. "Мы привержены обеспечению ответственного использования Grok и постоянно совершенствуем наши механизмы обнаружения и предотвращения", - говорится в заявлении, опубликованном командой по коммуникациям X. Компания изложила несколько принимаемых мер, включая усиление политики модерации контента, улучшение алгоритмов обнаружения дипфейков и внедрение более строгих протоколов проверки пользователей.
Однако эксперты утверждают, что обнаружение и удаление дипфейков - сложная и непрерывная задача. Технология, используемая для создания дипфейков, постоянно развивается, что затрудняет алгоритмам обнаружения идти в ногу со временем. Кроме того, огромный объем контента, генерируемого на таких платформах, как X, делает ручную проверку непрактичной.
"Это гонка вооружений", - объяснила доктор Аня Шарма, исследователь этики искусственного интеллекта в Институте технологий и общества. "По мере совершенствования методов обнаружения совершенствуются и методы, используемые для создания дипфейков. Это требует многогранного подхода, включая технологические решения, инициативы по повышению медиаграмотности и четкие правовые рамки".
Этот инцидент высвечивает более широкие социальные последствия быстрого развития технологий искусственного интеллекта. Хотя ИИ предлагает многочисленные преимущества, он также создает новые проблемы, связанные с дезинформацией, конфиденциальностью и безопасностью. Требование правительства к X подчеркивает растущее давление на технологические компании с целью упреждающего решения этих проблем и обеспечения ответственной разработки и развертывания инструментов ИИ.
Ситуация остается нестабильной, продолжаются обсуждения между правительственными чиновниками и представителями X. Эффективность мер по смягчению последствий, предпринимаемых X, будет тщательно отслеживаться, и дальнейшие регуляторные действия остаются возможными. Исход может создать прецедент для того, как правительства будут регулировать создание контента на основе ИИ на платформах социальных сетей в будущем.
Discussion
Join the conversation
Be the first to comment