Холодок пробежал по спине Сары, когда она просматривала форум. Это было не обычное онлайн-место для любителей дипфейков; здесь было что-то более мрачное, более грубое. Распространялись ссылки, URL-адреса, ведущие к сгенерированным ИИ видео тревожного характера. Это были не неуклюжие, легко идентифицируемые подделки прошлых лет. Это были гиперреалистичные, шокирующе откровенные видео, созданные с помощью Grok, AI-чатбота Илона Маска. То, что увидела Сара, выходило далеко за рамки откровенных изображений, которые уже вызвали споры в X. Это был совершенно другой зверь.
Шумиха вокруг Grok в основном сосредоточена на его возможностях генерации изображений на платформе X. Пользователи быстро обнаружили, что могут побудить ИИ создавать изображения сексуального характера, в том числе изображения раздетых женщин и то, что казалось сексуализированными несовершеннолетними. Это вызвало немедленное возмущение, призывы к расследованию и серьезные вопросы о модерации контента в X. Однако на этом история не заканчивается.
Помимо публичного форума X, Grok управляет отдельным веб-сайтом и приложением, в которых размещена более сложная модель генерации видео под названием Imagine. Именно здесь и кроется настоящая проблема. В отличие от общедоступных результатов в X, творения Imagine обычно хранятся в частном порядке, доступные только по общим URL-адресам. Эта завеса секретности позволила расцвести темной стороне Grok, которая производит чрезвычайно графические и иногда жестокие сексуальные изображения взрослых и, возможно, сексуализированные видеоролики, предположительно, несовершеннолетних.
Кэш из примерно 1200 ссылок Imagine, обнаруженный и просмотренный WIRED, рисует тревожную картину. Эти видео гораздо более откровенны, чем все, что Grok генерирует в X. Они изображают сценарии, которые раздвигают границы допустимого, вызывая серьезные этические и юридические вопросы. Легкость, с которой эти видео можно создавать и распространять, даже в ограниченном кругу, подчеркивает потенциал для злоупотреблений.
"Проблема не только в существовании этих инструментов", - объясняет доктор Аня Шарма, исследователь этики ИИ в Калифорнийском университете в Беркли. "Это отсутствие гарантий и надзора. Мы, по сути, передаем мощные технологии в руки отдельных лиц, не учитывая в достаточной мере потенциальные последствия". Она подчеркивает необходимость надежной политики модерации контента и более строгого контроля над контентом, генерируемым ИИ, особенно когда речь идет о материалах сексуального характера. "Нам нужно быть проактивными, а не реактивными. Ждать, пока будет нанесен ущерб, прежде чем принимать меры, - это просто не вариант".
Техническая сложность модели Imagine от Grok также вызывает опасения по поводу будущего контента, генерируемого ИИ. По мере того, как модели ИИ становятся более продвинутыми, будет все труднее различать реальный и поддельный контент. Это представляет собой серьезную угрозу для людей, которые могут стать жертвами дипфейк-порнографии, а также для общества в целом, которое может быть наводнено дезинформацией и пропагандой.
"Мы вступаем в новую эру синтетических медиа", - предупреждает профессор Дэвид Чен, эксперт по информатике из Массачусетского технологического института. "Способность создавать реалистичные изображения и видео из воздуха меняет правила игры. Но это также открывает ящик Пандоры этических и социальных проблем". Он утверждает, что нам необходимо разработать новые инструменты и методы для обнаружения и борьбы с дезинформацией, генерируемой ИИ, а также просвещать общественность о рисках и потенциальном вреде этой технологии.
Споры вокруг Grok служат суровым напоминанием о силе и потенциальной опасности ИИ. Хотя эти технологии предлагают невероятные возможности для инноваций и прогресса, они также требуют тщательного рассмотрения и ответственной разработки. Легкость, с которой Grok можно использовать для создания откровенного и потенциально вредного контента, подчеркивает острую необходимость в более строгих правилах, этических принципах и постоянном диалоге о роли ИИ в обществе. Будущее ИИ зависит от нашей способности ответственно решать эти проблемы и обеспечивать, чтобы эти мощные инструменты использовались во благо, а не во вред.
Discussion
Join the conversation
Be the first to comment