Правительство подвергается критике за предполагаемое затягивание внедрения законодательства, направленного на борьбу с дипфейками, особенно в свете появления Grok AI и потенциальных злоупотреблений им. Критики утверждают, что задержка делает общественность уязвимой для все более изощренных форм дезинформации и манипуляций.
Обвинения сосредоточены на кажущихся медленными темпах продвижения предложенного законопроекта, который установит правовые рамки для выявления, маркировки и наказания за создание и распространение дипфейк-контента. Дипфейки – это синтетические медиа, в которых человек на существующем изображении или видео заменяется на кого-то другого, созданные с использованием методов искусственного интеллекта, в основном глубокого обучения. Эти методы позволяют генерировать очень реалистичные, но сфабрикованные видео- и аудиозаписи.
«Чем дольше мы ждем принятия надежного законодательства, тем выше риск использования дипфейков для подрыва выборов, нанесения ущерба репутации и посева раздора», – заявила Лаура Кресс, ведущий эксперт в области этики и политики ИИ, в недавнем интервью. Кресс также подчеркнула безотлагательность ситуации, указав на быстрый прогресс в технологиях ИИ, особенно на разработку Grok AI, как на катализатор потенциальных злоупотреблений.
Grok AI, разработанный xAI, – это большая языковая модель (LLM), известная своими разговорными способностями и доступом к информации в режиме реального времени через платформу X (ранее Twitter). LLM – это системы ИИ, обученные на огромных наборах текстовых и кодовых данных, что позволяет им генерировать текст, подобный человеческому, переводить языки и отвечать на вопросы. Хотя Grok AI разработан для полезных целей, его возможности могут быть использованы для создания и распространения убедительных дипфейков в масштабе, согласно опасениям, высказанным несколькими наблюдателями за технологиями.
Предлагаемое законодательство направлено на решение нескольких ключевых аспектов проблемы дипфейков. Оно включает положения об обязательной маркировке контента, сгенерированного ИИ, установлении юридической защиты для лиц, чьи изображения используются без согласия, и наложении штрафов на тех, кто создает и распространяет вредоносные дипфейки. Законопроект также направлен на разъяснение юридической ответственности платформ социальных сетей в выявлении и удалении дипфейк-контента.
Однако законопроект столкнулся с многочисленными препятствиями, включая дебаты о сфере действия законодательства, опасения по поводу потенциального воздействия на свободу слова и разногласия по поводу технической осуществимости обнаружения дипфейков. Некоторые утверждают, что чрезмерно широкое законодательство может подавить законное использование технологий ИИ, таких как художественное выражение и сатира. Другие выражают скептицизм по поводу способности существующих методов обнаружения идти в ногу с быстрым развитием технологий дипфейков.
«Найти правильный баланс между защитой общественности от вреда и сохранением свободы выражения мнений – сложная задача», – заявил представитель правительства, пожелавший остаться анонимным в связи с деликатностью вопроса. «Мы стремимся к тому, чтобы любое законодательство, которое мы принимаем, было как эффективным, так и конституционным».
В настоящее время законопроект находится на рассмотрении парламентского комитета. На ближайшие недели запланирована серия публичных слушаний, в ходе которых эксперты, заинтересованные стороны и представители общественности смогут высказать свое мнение. Правительство заявило о намерении завершить разработку законодательства к концу года, но критики по-прежнему настроены скептически, ссылаясь на предыдущие задержки и отсутствие четкой приверженности. Эти дебаты подчеркивают сохраняющуюся напряженность между технологическими инновациями и необходимостью нормативных рамок для смягчения потенциальных рисков.
Discussion
Join the conversation
Be the first to comment