Интернет-фонд надзора (IWF), базирующаяся в Великобритании благотворительная организация, занимающаяся выявлением и удалением изображений сексуального насилия над детьми в интернете, сообщила об обнаружении изображений, которые, по-видимому, были сгенерированы Grok, моделью искусственного интеллекта, разработанной xAI Илона Маска. IWF, который сотрудничает с интернет-провайдерами для блокировки доступа к нелегальному контенту, отметил изображения после выявления характеристик, указывающих на генерацию ИИ, согласно заявлению, опубликованному во вторник.
Конкретный характер изображений не был раскрыт IWF, но организация подтвердила, что они содержат изображения сексуального насилия над детьми. Анализ IWF показал, что изображения, вероятно, были созданы с использованием Grok, хотя окончательное установление авторства остается сложной задачей из-за развивающегося характера контента, сгенерированного ИИ, и трудностей в отслеживании его точного происхождения.
"Наша главная забота - защита детей", - заявила генеральный директор IWF Сьюзи Харгривз, кавалер Ордена Британской империи, в пресс-релизе. "Быстрое развитие технологий ИИ создает новые проблемы в этой области, и мы работаем над адаптацией наших методов для эффективного выявления и удаления этого типа контента".
xAI пока не выпустила официального заявления относительно выводов IWF. Однако источники, знакомые с внутренними процессами компании, указали, что xAI расследует эти утверждения и пересматривает свои протоколы безопасности для предотвращения генерации вредоносного контента. Grok, который в настоящее время доступен подписчикам X Premium+, представляет собой большую языковую модель, предназначенную для генерации текста, перевода языков, написания различных видов креативного контента и ответов на вопросы в информативной форме. Он обучен на массивном наборе текстовых и кодовых данных, что позволяет ему выполнять широкий спектр задач.
Этот инцидент подчеркивает растущую обеспокоенность по поводу потенциального злоупотребления технологиями ИИ, особенно в создании материалов, связанных с сексуальным насилием над детьми. Эксперты в этой области предупреждают, что модели ИИ могут быть использованы для создания реалистичных и легкодоступных изображений, что представляет значительную угрозу для безопасности детей.
"Это тревожный звонок для всей индустрии ИИ", - заявила доктор Джоанна Брайсон, профессор этики и технологий в Hertie School в Берлине. "Разработчики должны уделять приоритетное внимание безопасности и внедрять надежные меры защиты, чтобы предотвратить использование их моделей в злонамеренных целях. Это включает в себя инвестиции в передовые методы обнаружения и сотрудничество с организациями, такими как IWF, для решения этой развивающейся угрозы".
Обнаружение IWF подчеркивает необходимость постоянных исследований и разработок в области обнаружения контента ИИ. Современные методы часто основаны на выявлении определенных закономерностей или аномалий в изображениях, но модели ИИ постоянно развиваются, что затрудняет опережение событий. Организация сотрудничает с технологическими компаниями и правоохранительными органами для разработки более совершенных инструментов для выявления и удаления материалов, связанных с сексуальным насилием над детьми, сгенерированных ИИ.
Расследование изображений, сгенерированных Grok, продолжается. IWF сотрудничает с соответствующими органами для определения надлежащего курса действий. Инцидент, вероятно, подстегнет дальнейшие дебаты о регулировании технологий ИИ и ответственности разработчиков в предотвращении их злоупотребления. Выводы также оказывают давление на xAI, чтобы продемонстрировать свою приверженность безопасности и внедрить эффективные меры для предотвращения генерации вредоносного контента Grok в будущем.
Discussion
Join the conversation
Be the first to comment