Правительственные чиновники требуют, чтобы социальная сеть X, принадлежащая Илону Маску, приняла меры в связи с распространением, по их словам, "ужасающих" дипфейков, созданных Grok, чат-ботом платформы с искусственным интеллектом. Опасения связаны с потенциальной возможностью распространения сгенерированных ИИ видео и изображений, которые могут дезинформировать и нанести ущерб репутации.
Требование правительства, опубликованное в среду, призывает X внедрить более строгие меры защиты от создания и распространения дипфейков с использованием Grok. Официальные лица особо отметили случаи, когда Grok использовался для создания реалистичных, но сфабрикованных видеороликов с участием публичных лиц, делающих ложные заявления. Они утверждают, что эти дипфейки представляют значительную угрозу для честности публичных дискуссий и могут быть использованы для манипулирования выборами или подстрекательства к насилию.
"Технологии продвинулись до такой степени, что обычному человеку становится все труднее отличить реальный контент от поддельного", - заявил представитель Федеральной торговой комиссии (FTC) в опубликованном заявлении. "X несет ответственность за то, чтобы ее инструменты искусственного интеллекта не использовались для обмана и введения общественности в заблуждение".
Grok, запущенный компанией xAI, принадлежащей Маску, в ноябре 2023 года, представляет собой большую языковую модель (LLM), предназначенную для ответов на вопросы в юмористическом и бунтарском стиле, опираясь на данные X в режиме реального времени. В настоящее время он доступен подписчикам X Premium+. ИИ построен на проприетарной архитектуре и обучен на огромном наборе текстовых и кодовых данных, что позволяет ему генерировать текст, переводить языки, писать различные виды креативного контента и отвечать на вопросы в информативной форме. Однако его способность получать доступ и обрабатывать информацию из X в режиме реального времени в сочетании с его генеративными возможностями вызвала опасения по поводу потенциальной возможности его злоупотребления.
Этот вопрос подчеркивает растущую проблему регулирования контента, созданного ИИ, на платформах социальных сетей. Дипфейки, созданные с использованием сложных методов машинного обучения, могут убедительно имитировать внешность и голос человека, что затрудняет обнаружение их мошеннической природы. Отрасль пытается найти баланс между преимуществами инноваций в области ИИ и необходимостью защиты от его потенциального вреда.
"Мы активно работаем над улучшением наших механизмов обнаружения и предотвращения дипфейков", - заявил представитель X в ответе по электронной почте. "Мы стремимся к тому, чтобы X оставалась безопасной и надежной платформой для наших пользователей". Компания заявила, что изучает различные технические решения, включая нанесение водяных знаков на контент, сгенерированный ИИ, и внедрение более строгой политики модерации контента.
Эксперты говорят, что эффективное обнаружение дипфейков требует многогранного подхода, включая передовые алгоритмы ИИ, которые могут анализировать видео и аудио на предмет характерных признаков манипуляции, а также надзор со стороны человека для проверки помеченного контента. Проблема заключается в том, чтобы опережать быстро развивающиеся технологии, поскольку методы создания дипфейков становятся все более сложными.
Требование правительства оказывает давление на X, чтобы компания предприняла конкретные действия для решения этой проблемы. Невыполнение этого требования может привести к контролю со стороны регулирующих органов и потенциальным судебным искам. FTC имеет право расследовать и преследовать компании, которые занимаются обманной или недобросовестной практикой, включая распространение дезинформации. Ситуация развивается, и ожидаются дальнейшие события по мере того, как X будет реагировать на опасения правительства и внедрять новые меры защиты.
Discussion
Join the conversation
Be the first to comment