Правительственные чиновники требуют, чтобы социальная сеть X, принадлежащая Илону Маску, приняла меры в связи с распространением "ужасающих", по их словам, дипфейков, созданных Grok, чат-ботом с искусственным интеллектом этой платформы. Это требование последовало за резким ростом количества реалистичного, но сфабрикованного контента, циркулирующего в X, что вызывает опасения по поводу дезинформации и потенциального вреда для отдельных лиц и учреждений.
Обеспокоенность правительства сосредоточена на способности Grok генерировать весьма убедительные аудио- и видеодипфейки. Эти синтетические медиа-творения могут имитировать голоса и внешность реальных людей, что затрудняет для обычного пользователя отличие их от подлинного контента. "Изощренность этих дипфейков вызывает глубокую тревогу", - заявил представитель правительства. "Мы наблюдаем уровень реализма, который невероятно облегчает обман общественности".
Grok, разработанный компанией xAI, принадлежащей Маску, представляет собой большую языковую модель (LLM), предназначенную для создания текста, перевода языков, написания различных видов креативного контента и ответов на вопросы в информативной форме. В отличие от некоторых других LLM, Grok интегрирован непосредственно в платформу X, что позволяет пользователям с премиум-подпиской получать доступ и использовать его возможности в среде социальных сетей. Эта интеграция, хотя и предназначена для улучшения пользовательского опыта, непреднамеренно предоставила легкодоступный инструмент для создания и распространения дипфейков.
Влияние этой ситуации на отрасль значительно. Специалисты по этике ИИ и эксперты в области технологий давно предупреждали о потенциальной возможности злоупотребления генеративными технологиями ИИ, такими как Grok. Нынешняя ситуация в X подчеркивает проблемы балансирования инноваций с ответственным развертыванием. "Это тревожный звонок для всей отрасли", - заявила доктор Аня Шарма, ведущий исследователь в области ИИ. "Нам необходимо разработать надежные меры защиты и механизмы обнаружения, чтобы бороться с распространением дипфейков, прежде чем они нанесут непоправимый ущерб".
X отреагировала на требования правительства, заявив, что активно работает над улучшением своих возможностей по обнаружению дипфейков и внедрением более строгой политики модерации контента. Компания утверждает, что инвестирует в передовые алгоритмы ИИ, предназначенные для выявления и маркировки синтетических медиа. "Мы стремимся обеспечить целостность нашей платформы и предотвратить распространение вредоносной дезинформации", - говорится в заявлении, опубликованном X. Однако критики утверждают, что усилия X недостаточны и что платформе необходимо предпринять более решительные действия для пресечения создания и распространения дипфейков.
В настоящее время обсуждения между правительством и X продолжаются. Сообщается, что правительство рассматривает возможность принятия мер регулирования, если X не сможет адекватно решить проблему. Ожидается, что следующие события будут включать выпуск обновленной политики модерации контента компанией X и, возможно, введение нового законодательства, направленного на регулирование использования контента, созданного ИИ. Ситуация подчеркивает острую необходимость в комплексном подходе к управлению рисками, связанными с быстро развивающимися технологиями ИИ.
Discussion
Join the conversation
Be the first to comment