Интернет-фонд надзора (IWF), британская благотворительная организация, занимающаяся выявлением и удалением изображений сексуального насилия над детьми в интернете, сообщила об обнаружении изображений, которые, «по всей видимости», были созданы Grok, моделью искусственного интеллекта, разработанной компанией xAI Илона Маска. IWF, сотрудничающий с интернет-провайдерами и платформами социальных сетей для блокировки доступа к нелегальному контенту, сделал это открытие в ходе своей обычной деятельности по мониторингу.
IWF не предоставил конкретной информации о количестве изображений или их точном характере, ссылаясь на необходимость защиты потенциальных жертв и предотвращения дальнейшего распространения материала. Однако представитель подтвердил, что изображения были помечены как потенциально сгенерированный ИИ контент, содержащий материалы сексуального насилия над детьми (CSAM). «Наш анализ предполагает высокую вероятность участия ИИ в создании этих изображений», — заявил представитель. «Скорость и масштаб, с которыми ИИ может генерировать подобный контент, представляют собой серьезную проблему для наших усилий по защите детей в интернете».
Grok, запущенный в ноябре 2023 года, представляет собой большую языковую модель (LLM), предназначенную для генерации текста, перевода языков и ответов на вопросы в разговорной форме. В настоящее время он доступен подписчикам X Premium+, самого высокого уровня подписки X. Grok отличается от других LLM своей заявленной способностью получать информацию в режиме реального времени из X, ранее Twitter, и своим «бунтарским» и юмористическим тоном. xAI пока не опубликовала подробные технические характеристики архитектуры или данных обучения Grok.
Появление CSAM, сгенерированного ИИ, вызывает растущую обеспокоенность в технологической индустрии и среди защитников безопасности детей. Эксперты предупреждают, что легкость и скорость, с которыми ИИ может создавать реалистичные и эксплуататорские изображения, могут перегрузить существующие системы обнаружения и удаления. Современные методы выявления CSAM часто основаны на цифровой идентификации и проверке человеком, методах, которые могут не успевать за быстрым распространением контента, сгенерированного ИИ.
«Это переломный момент», — заявила доктор Эмили Картер, исследователь, специализирующаяся на этике ИИ в Оксфордском университете. «Мы давно предвидели возможность злоупотребления ИИ таким образом, и теперь мы видим конкретные доказательства этого. Отрасли необходимо уделять приоритетное внимание разработке надежных мер защиты для предотвращения создания и распространения CSAM, сгенерированного ИИ».
xAI пока не выпустила официального заявления относительно выводов IWF. Однако Илон Маск ранее заявлял, что xAI привержена ответственной и этичной разработке ИИ. Еще предстоит увидеть, какие конкретные меры xAI предпримет для решения проблемы потенциального использования Grok для создания CSAM. IWF сотрудничает с xAI, чтобы предоставить информацию и поддержать их расследование. Инцидент подчеркивает острую необходимость сотрудничества между разработчиками ИИ, правоохранительными органами и организациями по защите детей для борьбы с растущей угрозой материалов сексуального насилия над детьми, сгенерированных ИИ.
Discussion
Join the conversation
Be the first to comment