Цифровой мир в очередной раз сталкивается с темной стороной искусственного интеллекта. То, что начиналось как футуристическое обещание полезных чат-ботов, превратилось в тревожную реальность: ИИ генерирует неконсенсуальные изображения сексуального характера, потенциально включая изображения несовершеннолетних. Эпицентр этой полемики? xAI Илона Маска и его чат-бот Grok.
Ситуация стремительно обострилась на этой неделе, кульминацией чего стало начало официального расследования xAI генеральным прокурором Калифорнии Робом Бонтой. Расследование сосредоточено вокруг утверждений о том, что Grok используется для создания и распространения материалов сексуального характера без согласия, что вызвало возмущение и подняло серьезные юридические вопросы.
Маск в заявлении, опубликованном всего за несколько часов до объявления о расследовании, заявил о незнании каких-либо случаев, когда Grok генерировал обнаженные изображения несовершеннолетних. "Мне ничего об этом не известно", - заявил он, и это отрицание вряд ли умерит растущую волну обеспокоенности.
Проблема, как подчеркивает платформа обнаружения ИИ Copyleaks, заключается в масштабе проблемы. Их данные показывают, что примерно одно изображение такого рода публиковалось в X (ранее Twitter) каждую минуту. Отдельная выборка, сделанная в начале января, выявила еще более тревожную скорость: примерно 6700 изображений в час в течение 24-часового периода. Учитывая, что X и xAI являются частью одной и той же компании, роль платформы в распространении этих изображений находится под пристальным вниманием.
Последствия выходят далеко за рамки самой платформы. "Этот материал использовался для преследования людей в интернете", - заявил генеральный прокурор Бонта, подчеркнув реальный вред, причиненный этими сгенерированными ИИ изображениями. Он призвал xAI принять "немедленные меры" для пресечения злоупотреблений, сигнализируя о серьезности, с которой штат относится к этому вопросу.
Правовая база, касающаяся контента, сгенерированного ИИ, все еще развивается, но существующие законы предлагают некоторую защиту. В Калифорнии, как и во многих юрисдикциях, действуют законы, предназначенные для защиты людей от неконсенсуальных изображений сексуального характера и материалов, содержащих сексуальное насилие над детьми (CSAM). Федеральный закон Take It Down Act, подписанный в прошлом году, еще больше усиливает эту защиту. Офис генерального прокурора будет расследовать, нарушила ли xAI эти законы и каким образом.
"Проблема здесь заключается в атрибуции и подотчетности", - объясняет доктор Эмили Картер, профессор этики ИИ в Стэнфордском университете. "Трудно окончательно доказать, что конкретное изображение было сгенерировано ИИ, и еще труднее привлечь к ответственности сам ИИ. Ответственность ложится на разработчиков и платформы за внедрение мер безопасности и активный мониторинг злоупотреблений".
Полемика вокруг Grok подчеркивает острую необходимость ответственной разработки и развертывания ИИ. Хотя ИИ предлагает огромный потенциал для инноваций, он также представляет значительные риски, если его оставить без контроля. xAI и более широкая технологическая индустрия находятся на критическом этапе. Они должны уделять приоритетное внимание этическим соображениям и инвестировать в надежные меры безопасности, чтобы предотвратить использование своих технологий в злонамеренных целях. Расследование генерального прокурора Калифорнии служит суровым напоминанием о том, что последствия бездействия серьезны, а юридические и репутационные риски значительны. Будущее ИИ зависит от способности отрасли решать эти проблемы активно и ответственно.
Discussion
Join the conversation
Be the first to comment