Правительственные чиновники требуют, чтобы социальная сеть X, принадлежащая Илону Маску, приняла меры в связи с распространением, по их словам, "ужасающих" дипфейков, созданных Grok, чат-ботом с искусственным интеллектом этой платформы. Это требование последовало за всплеском реалистичного, но сфабрикованного аудио- и видеоконтента, циркулирующего в X, что вызывает опасения по поводу потенциальной дезинформации и репутационного ущерба.
Опасения правительства сосредоточены на способности Grok генерировать весьма убедительные дипфейки, которые представляют собой синтетические медиа, в которых человек на существующем изображении или видео заменяется чьим-то другим подобием. Эта технология, имея потенциальные применения в сфере развлечений и образования, может быть использована не по назначению для создания ложных нарративов, манипулирования общественным мнением и клеветы на отдельных лиц. "Скорость и изощренность, с которой Grok может создавать эти дипфейки, вызывает глубокую тревогу", - заявил представитель Департамента технологического регулирования в опубликованном заявлении. "Нам нужны заверения, что X предпринимает активные шаги для смягчения рисков".
X представила Grok своим премиум-подписчикам в конце 2023 года как функцию, предназначенную для повышения вовлеченности пользователей и предоставления творческих инструментов. Grok построен на большой языковой модели (LLM), типе ИИ, который обучается на огромных наборах текстовых и кодовых данных, что позволяет ему генерировать человекоподобный текст, переводить языки и создавать различные виды творческого контента. Хотя X внедрила меры предосторожности для предотвращения создания вредоносного контента, критики утверждают, что этих мер недостаточно для борьбы с растущей изощренностью технологии дипфейков.
Рост дипфейков, созданных с помощью ИИ, представляет собой серьезную проблему как для технологической индустрии, так и для регулирующих органов. Эксперты предупреждают, что эта технология становится все более доступной, что облегчает злоумышленникам создание и распространение убедительной дезинформации. "Задача состоит не только в обнаружении дипфейков, но и в установлении их источника и привлечении виновных к ответственности", - заявила доктор Аня Шарма, ведущий исследователь ИИ в Институте цифровой этики.
X отреагировала на требования правительства, заявив, что привержена борьбе со злоупотреблением ИИ на своей платформе. Компания изложила свои текущие меры, которые включают политику модерации контента, инструменты обнаружения на основе ИИ и механизмы отчетности пользователей. "Мы постоянно работаем над улучшением нашей способности выявлять и удалять дипфейки и другие формы манипулируемых медиа", - говорится в заявлении, опубликованном главой отдела доверия и безопасности X. "Мы также изучаем новые технологии, такие как водяные знаки и отслеживание происхождения, чтобы помочь пользователям различать подлинный и синтетический контент".
В настоящее время правительство рассматривает предложенные X меры и рассматривает дальнейшие регуляторные действия. Это может включать в себя введение более строгой политики модерации контента, требование четкой маркировки контента, созданного с помощью ИИ, и наложение штрафов на платформы, которые не принимают адекватных мер для борьбы с распространением дипфейков. Результат этого обзора может иметь серьезные последствия для будущего регулирования ИИ и ответственности платформ социальных сетей в борьбе с дезинформацией.
Discussion
Join the conversation
Be the first to comment