Правительство подвергается критике за предполагаемую задержку с внедрением законодательства, направленного на борьбу со злоупотреблением технологией дипфейков, особенно в свете появления Grok AI, новой модели искусственного интеллекта, способной генерировать высокореалистичные синтетические медиа. Критики утверждают, что задержка делает общество уязвимым для потенциального вреда от дипфейков, включая кампании по дезинформации, ущерб репутации и даже финансовое мошенничество.
Опасения связаны с растущей сложностью и доступностью инструментов искусственного интеллекта, таких как Grok, разработанный xAI. Grok, как и другие большие языковые модели (LLM), использует огромные наборы данных для изучения закономерностей и генерации текста, изображений и аудио. Эта возможность, предлагая преимущества в таких областях, как создание контента и обслуживание клиентов, также позволяет создавать убедительные дипфейки – манипулируемые медиа, которые могут убедительно изображать людей, говорящих или делающих то, чего они никогда не делали.
"Чем дольше мы ждем регулирования дипфейков, тем больше риск широкомасштабных манипуляций и подрыва доверия к нашим институтам", - заявила Лаура Кресс, ведущий эксперт в области этики искусственного интеллекта. "Продвинутые возможности Grok AI только усиливают эти опасения, облегчая злоумышленникам создание и распространение убедительных подделок".
Предлагаемое законодательство, которое находится на рассмотрении в течение нескольких месяцев, направлено на создание четких правовых рамок для борьбы с вредом, связанным с дипфейками. Ключевые положения включают меры по криминализации создания и распространения вредоносных дипфейков, требования к маркировке синтетических медиа и механизмы для возмещения ущерба жертвам.
Правительство, однако, утверждает, что придерживается взвешенного подхода, чтобы обеспечить эффективность законодательства и не подавлять инновации. "Мы привержены устранению рисков, связанных с дипфейками, но нам также необходимо избегать непредвиденных последствий, которые могут нанести вред законному использованию технологии искусственного интеллекта", - заявил представитель правительства. "Мы тщательно рассматриваем все аспекты предлагаемого законодательства, чтобы найти правильный баланс".
Задержка вызвала дебаты среди политиков, ученых и представителей отрасли. Некоторые утверждают, что правительство отдает приоритет интересам технологических компаний над защитой граждан. Другие предостерегают от чрезмерно широких правил, которые могут подавить свободу слова и затруднить разработку полезных приложений искусственного интеллекта.
Текущий статус законодательства неясен. Хотя правительство указало, что намерено продвигать законопроект, конкретные сроки не объявлены. Эксперты прогнозируют дальнейшие дебаты и потенциальные поправки до окончательной доработки законодательства. Продолжающаяся разработка и развертывание все более мощных моделей искусственного интеллекта, таких как Grok, вероятно, будут и впредь усиливать актуальность необходимости эффективного регулирования дипфейков.
Discussion
Join the conversation
Be the first to comment