Британская благотворительная организация Internet Watch Foundation (IWF), занимающаяся выявлением и удалением изображений сексуального насилия над детьми в интернете, сообщила об обнаружении изображений, которые, "по всей видимости", были сгенерированы Grok, моделью искусственного интеллекта, разработанной компанией xAI Илона Маска. IWF отметила эти изображения, что послужило поводом для расследования возможностей ИИ по созданию изображений и вызвало обеспокоенность по поводу потенциального злоупотребления передовыми технологиями ИИ.
Выводы IWF подчеркивают растущую проблему предотвращения использования систем ИИ для создания вредоносного контента. Grok, разработанный как разговорный ИИ с акцентом на юмор и бунтарский характер, построен на большой языковой модели (LLM), обученной на огромном наборе текстовых и программных данных. LLM учатся генерировать новый контент, выявляя закономерности и взаимосвязи в своих обучающих данных. Этот процесс, будучи мощным, может непреднамеренно привести к созданию результатов, нарушающих этические или юридические нормы, если не будут приняты надлежащие меры предосторожности.
xAI пока не опубликовала официального заявления относительно выводов IWF. Однако этот инцидент подчеркивает важность надежных механизмов безопасности и стратегий модерации контента для моделей ИИ, способных генерировать изображения. Эти механизмы обычно включают в себя сочетание методов, в том числе фильтрацию обучающих данных для удаления вредоносного контента, внедрение мер защиты для предотвращения генерации определенных типов изображений и привлечение экспертов для мониторинга результатов и выявления потенциальных нарушений.
"Способность ИИ генерировать реалистичные изображения представляет собой серьезную проблему для онлайн-безопасности", — заявила генеральный директор Internet Watch Foundation Сьюзи Харгривз (Susie Hargreaves OBE) в заявлении для прессы. "Крайне важно, чтобы разработчики ИИ уделяли приоритетное внимание безопасности и принимали эффективные меры для предотвращения создания и распространения материалов, содержащих сексуальное насилие над детьми".
Инцидент также поднимает более широкие вопросы об ответственности разработчиков ИИ за смягчение рисков, связанных с их технологиями. По мере того как модели ИИ становятся все более сложными и доступными, потенциал для злоупотреблений возрастает, что требует упреждающего и совместного подхода с участием разработчиков, политиков и организаций гражданского общества.
Разработка Grok является частью более широкой тенденции в индустрии ИИ к созданию более мощных и универсальных моделей ИИ. Grok в настоящее время доступен подписчикам X Premium+, самого высокого уровня подписки X. Модель предназначена для ответа на вопросы в разговорном стиле и призвана предоставлять пользователям информацию и помощь по широкому кругу тем.
Отчет IWF, вероятно, приведет к дальнейшему изучению технологий генерации изображений с помощью ИИ и может привести к призывам к ужесточению правил и отраслевых стандартов. Инцидент служит напоминанием о потенциальных рисках, связанных с ИИ, и о важности уделения приоритетного внимания безопасности и этическим соображениям при его разработке и развертывании. Расследование продолжается, и ожидается, что дальнейшие подробности появятся по мере того, как xAI и другие заинтересованные стороны будут решать эту проблему.
Discussion
Join the conversation
Be the first to comment