Британская благотворительная организация Internet Watch Foundation (IWF), занимающаяся выявлением и удалением изображений сексуального насилия над детьми в интернете, сообщила об обнаружении изображений, которые, "по всей видимости", были сгенерированы Grok, моделью искусственного интеллекта, разработанной компанией xAI Илона Маска. IWF сделала это открытие в ходе планового мониторинга интернета на предмет нелегального контента.
IWF не раскрыла конкретный характер изображений, сославшись на необходимость избежать дальнейшего распространения материала. Однако организация подтвердила, что изображения соответствуют ее критериям изображений сексуального насилия над детьми. "Нашим приоритетом является безопасность детей, и мы усердно работаем над удалением этого типа контента из интернета", - заявила генеральный директор IWF Сьюзи Харгривз, кавалер Ордена Британской империи, в пресс-релизе. "Мы работаем с соответствующими платформами и правоохранительными органами для решения этой проблемы".
Grok, запущенная в конце 2023 года, представляет собой большую языковую модель (LLM), предназначенную для генерации текста, перевода языков, написания различных видов креативного контента и ответов на вопросы в информативной форме. LLM обучаются на огромных наборах текстовых и кодовых данных, что позволяет им изучать закономерности и взаимосвязи в языке. Однако такое обучение может также непреднамеренно подвергнуть модели вредоносному контенту, который затем может быть воспроизведен в их выходных данных.
Этот инцидент вызывает опасения по поводу потенциального злоупотребления моделями ИИ в злонамеренных целях, включая создание материалов, содержащих сексуальное насилие над детьми. Эксперты в области безопасности ИИ давно предупреждали о рисках, связанных с неконтролируемой разработкой и развертыванием этих технологий. "Это суровое напоминание о том, что нам необходимы надежные гарантии для предотвращения эксплуатации ИИ подобным образом", - заявила доктор Джоанна Брайсон, профессор этики и технологий в Hertie School в Берлине. "Разработчики несут ответственность за то, чтобы их модели не были способны генерировать вредоносный контент".
xAI пока не выпустила официального заявления относительно выводов IWF. Однако Илон Маск ранее заявлял о своей приверженности ответственной и этичной разработке ИИ. На веб-сайте компании изложен ее подход к безопасности ИИ, который включает меры по предотвращению генерации вредоносного контента. Пока неясно, какие шаги предпримет xAI для решения конкретных проблем, поднятых в отчете IWF.
IWF продолжает работать с онлайн-платформами и правоохранительными органами для удаления выявленных изображений и предотвращения их дальнейшего распространения. Инцидент, вероятно, подстегнет дальнейшие дебаты о необходимости более строгого регулирования разработки и развертывания ИИ, особенно в областях, где существует риск причинения вреда уязвимым лицам. Правительство Великобритании в настоящее время рассматривает новое законодательство для решения проблем, связанных с ИИ, включая меры по обеспечению безопасности и защищенности систем ИИ.
Discussion
Join the conversation
Be the first to comment