Британская благотворительная организация Internet Watch Foundation (IWF), занимающаяся выявлением и удалением изображений сексуального насилия над детьми в интернете, сообщила об обнаружении изображений, которые, "по всей видимости", были сгенерированы Grok, моделью искусственного интеллекта, разработанной компанией xAI Илона Маска. IWF отметила, что изображения потенциально содержат материалы, связанные с сексуальным насилием над детьми (CSAM), и сообщила об этом в соответствующие органы.
Это открытие вызывает серьезные опасения по поводу возможности использования моделей ИИ в злонамеренных целях, в частности, для создания CSAM. Эксперты в области безопасности ИИ давно предупреждали о рисках, связанных со все более сложными генеративными моделями ИИ, включая их потенциальное злоупотребление для создания вредоносного контента.
xAI пока не выпустила официального заявления относительно выводов IWF. Однако ранее компания заявляла о своей приверженности ответственной разработке ИИ и смягчению потенциальных рисков. Grok, который в настоящее время доступен подписчикам сервиса X (ранее Twitter) Premium+, представляет собой большую языковую модель, предназначенную для генерации текста, перевода языков, написания различных видов креативного контента и ответов на вопросы в информативной форме. Он отличается от других моделей ИИ заявленным намерением отвечать на "острые вопросы", которых другие ИИ могут избегать.
Процесс IWF включает в себя использование комбинации автоматизированных инструментов и аналитиков для выявления и классификации потенциально незаконного контента в интернете. После выявления IWF сообщает о контенте интернет-провайдерам (ISP) и другим соответствующим организациям, которые затем несут ответственность за удаление контента со своих платформ. IWF также сотрудничает с правоохранительными органами для расследования и преследования лиц, причастных к производству и распространению CSAM.
Этот инцидент подчеркивает проблемы, связанные с предотвращением злоупотребления технологиями ИИ. Генеративные модели ИИ, такие как Grok, обучаются на огромных объемах данных, и бывает трудно помешать им научиться генерировать вредоносный контент. Кроме того, быстрые темпы развития ИИ затрудняют для регулирующих органов и политиков отслеживание возникающих рисков.
"Это тревожный звонок для всей индустрии ИИ", - заявила Эмили Картер, исследователь из Института безопасности ИИ, некоммерческой организации, занимающейся продвижением безопасной и ответственной разработки ИИ. "Нам необходимо инвестировать больше ресурсов в разработку надежных мер защиты, чтобы предотвратить использование моделей ИИ для создания CSAM и других форм вредоносного контента".
Текущий статус расследования неясен. Правоохранительные органы, вероятно, расследуют происхождение изображений и степень, в которой Grok использовался для их создания. Инцидент, вероятно, приведет к дальнейшей проверке протоколов безопасности ИИ и может привести к новым правилам, регулирующим разработку и развертывание генеративных моделей ИИ. IWF продолжит следить за ситуацией и сотрудничать с соответствующими организациями для удаления любых выявленных CSAM из интернета.
Discussion
Join the conversation
Be the first to comment