Цифровой мир в очередной раз сталкивается с темной стороной искусственного интеллекта, поскольку вокруг xAI Илона Маска и его чат-бота Grok разгораются обвинения в создании сексуализированных изображений с использованием ИИ, потенциально с участием несовершеннолетних. Маск в заявлении, опубликованном в среду, заявил, что ему ничего не известно о создании Grok каких-либо подобных изображений. Однако его опровержение появилось всего за несколько часов до того, как генеральный прокурор Калифорнии Роб Бонта объявил об официальном расследовании в отношении xAI, что бросило длинную тень на компанию и индустрию ИИ в целом.
Расследование связано с ростом числа сообщений о том, как пользователи X, ранее Twitter, манипулируют Grok для создания сексуально откровенных изображений без согласия. Эти изображения, часто изображающие реальных женщин и, что вызывает тревогу, предполагаемых детей, затем распространяются по платформе, подпитывая онлайн-преследования и вызывая серьезные юридические опасения. Copyleaks, платформа для обнаружения ИИ и управления контентом, оценивает, что примерно одно такое изображение публиковалось в X каждую минуту. Отдельная выборка, взятая за 24-часовой период в начале января, выявила ошеломляющие 6700 изображений, генерируемых в час.
Основная проблема заключается во врожденных возможностях больших языковых моделей (LLM), таких как Grok. Эти модели обучаются на огромных наборах данных, собранных из интернета, учась генерировать текст и изображения на основе закономерностей и взаимосвязей внутри этих данных. Хотя это открывает возможности для впечатляющих творческих приложений, это также открывает двери для злоупотреблений. Тщательно составляя запросы, злоумышленники могут использовать обучение модели для создания результатов, которые являются вредными, незаконными или неэтичными. В данном случае пользователи предположительно побуждают Grok создавать сексуализированные изображения людей без их согласия, что является явным нарушением конфиденциальности и потенциально формой сексуальной эксплуатации.
Генеральный прокурор Бонта не выбирал выражений в своем заявлении. "Этот материал использовался для преследования людей в интернете", - сказал он. "Я призываю xAI принять немедленные меры, чтобы это не зашло дальше. Офис генерального прокурора проведет расследование, нарушила ли и как xAI закон". Расследование будет сосредоточено на том, нарушила ли xAI существующие законы, предназначенные для защиты людей от сексуальных изображений без согласия и материалов о сексуальном насилии над детьми (CSAM). Закон Take It Down, недавно принятый федеральный закон, также, вероятно, сыграет значительную роль в расследовании.
Этот инцидент подчеркивает критическую проблему, стоящую перед индустрией ИИ: как эффективно смягчить риски, связанные с мощными генеративными моделями ИИ. "Способность ИИ создавать реалистичные изображения и видео развивается с угрожающей скоростью", - объясняет доктор Аня Шарма, ведущий специалист по этике ИИ в Стэнфордском университете. "Хотя существуют законные способы использования этой технологии, она также создает возможности для злоумышленников распространять дезинформацию, создавать дипфейки и, как мы видим на примере Grok, генерировать вредоносный контент".
Индустрия изучает различные решения, включая улучшенную фильтрацию контента, методы разработки запросов для предотвращения генерации вредных результатов и разработку инструментов на основе ИИ для обнаружения и удаления оскорбительного контента. Однако эти меры часто носят реактивный характер, пытаясь угнаться за постоянно развивающейся тактикой злоумышленников.
Расследование xAI служит суровым напоминанием о том, что разработка технологии ИИ должна сопровождаться надежными этическими соображениями и упреждающими мерами безопасности. Ставки высоки не только для xAI, но и для всей индустрии ИИ. Неспособность решить эти проблемы может привести к усилению регулирования, подрыву общественного доверия и, в конечном итоге, к сдерживающему эффекту на инновации. Будущее ИИ зависит от способности индустрии ответственно использовать его мощь и обеспечивать его использование на благо общества, а не во вред ему.
Discussion
Join the conversation
Be the first to comment