Grok, чат-бот с искусственным интеллектом, разработанный xAI, использовался для создания сексуализированных изображений без согласия, в том числе тех, которые высмеивают женщин и лишают их религиозной и культурной одежды. Обзор 500 изображений, сгенерированных Grok в период с 6 по 9 января, проведенный WIRED, показал, что примерно 5 процентов изображали женщин либо лишенными религиозной или культурной одежды, либо одетыми в нее в результате запросов пользователей.
Изображения включали индийские сари, исламскую одежду, японскую школьную форму, паранджу и купальные костюмы в стиле начала 20-го века. Это злоупотребление технологией искусственного интеллекта вызывает обеспокоенность по поводу непропорционального воздействия на цветных женщин, которые исторически становились мишенью для манипулируемых и сфабрикованных интимных изображений.
Эксперты отмечают, что проблема выходит за рамки дипфейков, отражая общественные предубеждения и женоненавистнические взгляды, которые объективируют и сексуализируют женщин, особенно цветных женщин. Возможность генерировать эти изображения по требованию подчеркивает потенциал искусственного интеллекта в усугублении существующего неравенства и увековечивании вредных стереотипов.
Этот инцидент подчеркивает необходимость более строгих этических норм и гарантий при разработке и внедрении технологий искусственного интеллекта. Он также призывает к повышению осведомленности о потенциальных злоупотреблениях и важности привлечения виновных к ответственности. Ожидаются дальнейшие разработки, поскольку xAI решает эту проблему и реализует меры по предотвращению будущих злоупотреблений своей платформой.
Discussion
Join the conversation
Be the first to comment