Правительство подвергается критике за предполагаемую задержку с внедрением законодательства, направленного на борьбу с дипфейками, особенно в свете появления Grok AI, новой модели искусственного интеллекта, способной генерировать реалистичный и потенциально вводящий в заблуждение контент. Критики утверждают, что задержка делает общественность уязвимой для дезинформации и манипуляций, особенно по мере того, как технология становится все более сложной и доступной.
Опасения связаны с потенциалом Grok AI и аналогичных моделей для создания дипфейк-видео и аудиозаписей, которые трудно отличить от реальности. Дипфейки, созданные с использованием передовых методов машинного обучения, могут изображать людей, говорящих или делающих то, чего они на самом деле никогда не говорили и не делали, что может нанести ущерб репутации, повлиять на общественное мнение или даже спровоцировать насилие. В основе технологии часто лежат генеративно-состязательные сети (GAN), в которых две нейронные сети конкурируют друг с другом – одна генерирует поддельный контент, а другая пытается его обнаружить – что приводит к созданию все более реалистичных результатов.
"Чем дольше мы ждем регулирования дипфейков, тем больше возможностей появляется у злоумышленников для эксплуатации этой технологии", - заявила Лора Кресс, защитник цифровых прав. "Возможности Grok AI только усиливают актуальность проблемы. Нам нужны четкие правовые рамки для сдерживания создания и распространения вредоносных дипфейков и привлечения виновных к ответственности".
Предлагаемое законодательство направлено на решение нескольких ключевых аспектов проблемы дипфейков. К ним относятся определение того, что представляет собой дипфейк, установление юридической ответственности для тех, кто создает или распространяет вредоносные дипфейки, и требование к платформам внедрять меры по обнаружению и удалению дипфейк-контента. Задержка, по словам источников, знакомых с этим вопросом, связана с продолжающимися дебатами о масштабах законодательства и опасениями по поводу потенциального нарушения прав на свободу слова.
Некоторые утверждают, что чрезмерно широкие правила могут подавить законное использование технологий ИИ, таких как художественное выражение или сатира. Другие подчеркивают необходимость сбалансировать свободу слова с защитой отдельных лиц и общества от вреда дезинформации. Дебаты подчеркивают сложные задачи регулирования быстро развивающихся технологий, таких как ИИ.
"Найти правильный баланс имеет решающее значение", - заявила д-р Аня Шарма, исследователь этики ИИ в Институте технологий и общества. "Нам нужны правила, которые эффективно предотвращают вред, не ограничивая при этом инновации или свободу выражения мнений. Это требует тщательного рассмотрения технических возможностей моделей ИИ, таких как Grok AI, а также потенциальных социальных последствий".
Правительство признало опасения и заявило, что привержено решению проблемы дипфейков. Официальные лица указали, что законодательство все еще находится на рассмотрении и что они работают над включением отзывов от различных заинтересованных сторон. Однако конкретных сроков завершения и реализации законодательства не было предоставлено. Тем временем эксперты призывают людей критически относиться к онлайн-контенту и осознавать возможность использования дипфейков для распространения дезинформации. Разработка и внедрение инструментов для обнаружения дипфейков также продолжаются, но многие признают, что эти инструменты постоянно пытаются угнаться за достижениями в области технологий ИИ.
Discussion
Join the conversation
Be the first to comment