Правительство подвергается критике за якобы затягивание внедрения законодательства, касающегося дипфейков, особенно в свете появления Grok AI и его потенциального злоупотребления. Критики утверждают, что задержка делает общество уязвимым для злонамеренного применения этой технологии, включая кампании по дезинформации и кражу личных данных.
Обвинение сосредоточено на кажущихся медленными темпах разработки и принятия законов, которые были бы конкретно направлены на создание и распространение дипфейков. Дипфейки, по сути, являются синтетическими медиа, в которых человек на существующем изображении или видео заменяется чьим-то другим подобием. Это достигается с помощью сложных методов искусственного интеллекта, в основном с использованием алгоритмов глубокого обучения – отсюда и название. Эти алгоритмы анализируют огромные наборы данных изображений и видео, чтобы изучить черты лица, выражения и манеры человека, позволяя им убедительно накладывать подобие этого человека на другого человека в видео- или аудиозаписи.
Обеспокоенность усиливается возможностями Grok AI, большой языковой модели (LLM), разработанной xAI. LLM обучаются на огромных объемах текстовых данных, что позволяет им генерировать текст человеческого качества, переводить языки и отвечать на вопросы исчерпывающим образом. Хотя LLM имеют множество полезных применений, их также можно использовать для создания убедительных поддельных новостных статей, генерации реалистично звучащего аудио, где люди говорят вещи, которые они никогда не говорили, и даже для содействия созданию дипфейк-видео.
«Чем дольше мы ждем регулирования дипфейков, тем больше риск широко распространенных манипуляций и подрыва доверия к нашим институтам», — сказала Лора Кресс, защитница цифровых прав. «Grok AI и подобные технологии — мощные инструменты, но без надлежащих гарантий их можно использовать в качестве оружия».
Дебаты вокруг регулирования дипфейков сложны. С одной стороны, необходимо защитить людей и общество от потенциального вреда дипфейков. С другой стороны, есть опасения по поводу подавления инноваций и нарушения свободы слова. Любое законодательство должно найти деликатный баланс между этими конкурирующими интересами.
Рассматривается несколько подходов к регулированию дипфейков. К ним относятся требование о заявлениях об отказе от ответственности на дипфейках, криминализация создания и распространения злонамеренных дипфейков и разработка технологических решений для обнаружения дипфейков. Некоторые исследователи изучают методы нанесения водяных знаков или отпечатков пальцев на цифровой контент, что облегчает идентификацию манипулируемых медиа. Другие работают над инструментами на базе искусственного интеллекта, которые могут анализировать видео- и аудиозаписи для обнаружения характерных признаков манипуляций с дипфейками.
Правительство заявило, что привержено решению проблем, связанных с дипфейками, и активно работает над законодательством. Однако критики утверждают, что процесс занимает слишком много времени, особенно учитывая быстрые достижения в области технологий искусственного интеллекта. Следующие шаги, вероятно, включают дальнейшие консультации с экспертами, заинтересованными сторонами и общественностью, за которыми последуют разработка и внесение законодательства в соответствующий законодательный орган. Сроки принятия остаются неопределенными.
Discussion
Join the conversation
Be the first to comment