Несколько сенаторов США требуют от крупных технологических компаний, включая X, Meta, Alphabet, Snap, Reddit и TikTok, предоставить информацию об их стратегиях по борьбе с распространением сексуализированных дипфейков на их платформах. В письме, адресованном руководству этих компаний, сенаторы запросили доказательства наличия надежных мер защиты и политик, направленных на сдерживание роста созданных с помощью ИИ изображений, полученных без согласия.
Сенаторы также потребовали от компаний сохранить все документы и информацию, касающиеся создания, обнаружения, модерации и монетизации сексуализированных изображений, созданных с помощью ИИ, а также любые связанные с этим политики. Это требование последовало за сообщениями, подчеркивающими легкость, с которой модели ИИ, такие как Grok, использовались для создания откровенных изображений женщин и детей.
Письмо было отправлено через несколько часов после того, как X объявила об обновлениях своей модели Grok AI, запрещающих ей создавать отредактированные изображения реальных людей в откровенной одежде. X также ограничила создание и редактирование изображений с помощью Grok только для платных подписчиков. X и xAI являются частью одной и той же компании.
Сенаторы подчеркнули, что меры защиты платформ от несанкционированных сексуализированных изображений могут быть недостаточными, даже при наличии действующих политик против несанкционированных интимных изображений и сексуальной эксплуатации. Сенаторы указали на сообщения в СМИ о том, как легко и часто Grok генерировал сексуализированные и обнаженные изображения женщин и детей.
Дипфейки, представляющие собой созданные с помощью ИИ синтетические медиафайлы, в которых человек на существующем изображении или видео заменяется на кого-то другого, вызывают серьезные опасения по поводу их потенциального злоупотребления, особенно в создании несанкционированной порнографии и распространении дезинформации. Эта технология основана на передовых методах машинного обучения, таких как глубокое обучение, для анализа и воспроизведения внешности и голоса человека.
Запрос сенаторов подчеркивает растущее давление на технологические компании с целью решения этических и социальных последствий контента, созданного с помощью ИИ. Требование предоставить документацию о стратегиях обнаружения и модерации указывает на акцент на технических проблемах выявления и удаления дипфейков с онлайн-платформ. Практика монетизации, связанная с таким контентом, также находится под пристальным вниманием, что отражает обеспокоенность по поводу финансовых стимулов, которые могут способствовать его распространению.
Ответ этих технологических компаний, вероятно, будет включать подробное описание их текущих систем модерации контента ИИ, которые часто используют комбинацию автоматизированных инструментов и модераторов-людей. Эти системы обычно полагаются на алгоритмы, обученные обнаруживать закономерности и признаки, связанные с дипфейками, такие как несоответствия в освещении, неестественные движения лица и другие характерные признаки манипуляции.
Запрос сенаторов на информацию также подчеркивает продолжающиеся дебаты о балансе между свободой слова и необходимостью защиты людей от вреда, причиненного контентом, созданным с помощью ИИ. По мере того как технология ИИ продолжает развиваться, политики и технологические компании сталкиваются с проблемой разработки эффективных правил и мер защиты, которые могут смягчить риски, связанные с дипфейками, сохраняя при этом преимущества инноваций в области ИИ. Результат этого запроса может повлиять на будущее законодательство и отраслевые стандарты, касающиеся модерации контента ИИ и предотвращения несанкционированного злоупотребления изображениями.
Discussion
Join the conversation
Be the first to comment