Распространение этих сгенерированных ИИ изображений совпало с появлением в сети реальных видео и фотографий американской авиации и взрывов, еще больше стирая границы между реальностью и вымыслом. Этот инцидент подчеркивает потенциал искусственного интеллекта в распространении дезинформации и манипулировании общественным мнением, особенно во время кризисов. Эксперты отмечают, что скорость и масштаб распространения этих изображений были обусловлены растущей сложностью и доступностью инструментов генерации изображений с помощью ИИ.
Генеративно-состязательные сети (GAN), тип алгоритма ИИ, часто используются для создания этих гиперреалистичных изображений. GAN работают, противопоставляя две нейронные сети друг другу: генератор, который создает изображения, и дискриминатор, который пытается отличить реальные изображения от поддельных. В ходе этого итеративного процесса генератор учится создавать все более реалистичные изображения, которые трудно распознать как синтетические. Инцидент с изображениями Мадуро демонстрирует, как эти технологии могут быть использованы в качестве оружия для распространения ложных нарративов.
"Легкость, с которой можно создавать и распространять эти сгенерированные ИИ изображения, вызывает тревогу", - заявила доктор Майя Томпсон, профессор медиа-исследований Калифорнийского университета в Беркли. "Среднестатистическому человеку становится все труднее различать, что реально, а что нет, что имеет серьезные последствия для нашего понимания текущих событий и нашего доверия к источникам информации".
Отсутствие проверенной информации об предполагаемом нападении США на Венесуэлу еще больше усугубило проблему. Отсутствие официальных заявлений от правительственных источников позволило сгенерированным ИИ изображениям заполнить информационный вакуум, формируя общественное восприятие до того, как точная информация могла быть подтверждена. Это подчеркивает важность медиаграмотности и навыков критического мышления при навигации в цифровом пространстве.
Несколько платформ социальных сетей начали внедрять меры по обнаружению и маркировке контента, сгенерированного ИИ, но технология постоянно развивается, что превращает это в непрерывную игру в кошки-мышки. Исследователи изучают такие методы, как нанесение водяных знаков и криминалистический анализ, для идентификации синтетических изображений, но эти методы не являются надежными. Инцидент служит суровым напоминанием о необходимости постоянных исследований и разработок в области обнаружения ИИ и образования в области медиаграмотности для смягчения рисков дезинформации. Ситуация остается нестабильной, организации по проверке фактов работают над разоблачением ложных изображений и предоставлением точной информации о ситуации в Венесуэле.
Discussion
Join the conversation
Be the first to comment