Правительство сталкивается с обвинениями в затягивании внедрения законодательства, направленного на борьбу с дипфейками, особенно в свете появления Grok AI и его потенциального злоупотребления. Критики утверждают, что медленные темпы принятия регулирующих мер делают общество уязвимым для злонамеренного применения все более сложных технологий искусственного интеллекта.
Опасения сосредоточены на способности моделей ИИ, таких как Grok, разработанной xAI, генерировать очень реалистичный и обманчивый аудио- и видеоконтент. Дипфейки, созданные с использованием таких методов, как генеративно-состязательные сети (GAN), могут убедительно имитировать реальных людей, что затрудняет различение подлинного и сфабрикованного материала. Эта возможность создает значительные риски для дезинформационных кампаний, репутационного ущерба и даже политических манипуляций.
«Технологии развиваются экспоненциально, но наши правовые рамки сильно отстают», — заявила доктор Аня Шарма, профессор этики ИИ в Технологическом университете. «Нам нужны четкие руководящие принципы и правила, чтобы сдерживать создание и распространение злонамеренных дипфейков, прежде чем они причинят непоправимый вред».
Генеративно-состязательные сети, или GAN, работают, противопоставляя друг другу две нейронные сети. Одна сеть, генератор, создает синтетические данные, а другая, дискриминатор, пытается отличить реальные данные от поддельных. Благодаря этому итеративному процессу генератор учится производить все более реалистичные результаты, что в конечном итоге приводит к созданию убедительных дипфейков.
Предлагаемое законодательство направлено на решение этих проблем путем создания правовых рамок для выявления, маркировки и удаления дипфейков. Оно также направлено на привлечение к ответственности отдельных лиц и организации за создание и распространение обманчивого контента. Однако законопроект столкнулся с задержками в парламентском рассмотрении, что вызвало критику со стороны групп по защите гражданских прав и экспертов в области технологий.
«Каждый день, проходящий без эффективного регулирования, — это еще один день, когда злоумышленники могут безнаказанно использовать эти технологии», — заявил Марк Олсен, директор Коалиции цифровых свобод. «Правительство должно уделить приоритетное внимание этому вопросу и действовать быстро, чтобы защитить общественность от потенциального вреда дипфейков».
Правительство, в свою защиту, утверждает, что сложность технологии требует тщательного рассмотрения, чтобы избежать непредвиденных последствий, таких как подавление инноваций или нарушение свободы слова. Официальные лица также указывают на необходимость международного сотрудничества, поскольку дипфейки могут легко пересекать границы, что затрудняет правоприменение.
«Мы привержены делу устранения рисков, связанных с дипфейками, но мы должны делать это таким образом, чтобы это было одновременно эффективно и соразмерно», — заявил представитель Департамента цифровых дел. «Мы активно консультируемся с экспертами и заинтересованными сторонами, чтобы обеспечить соответствие законодательства цели и не ограничивало необоснованно законное использование ИИ».
Текущий статус законодательства находится на рассмотрении парламентского комитета, дальнейшие обсуждения ожидаются в ближайшие недели. Исход этих обсуждений определит, в какой степени правительство сможет эффективно смягчить риски, связанные с дипфейками и другим контентом, сгенерированным ИИ. Следующие шаги включают дальнейшие консультации с технологическими компаниями и юристами для уточнения предлагаемых правил и решения проблем, поднятых различными заинтересованными сторонами.
Discussion
Join the conversation
Be the first to comment