Над AI-чатботом Grok, разработанным Илоном Маском, сгущаются цифровые тучи. То, что начиналось как игривый эксперимент в области искусственного интеллекта, теперь поставило xAI, компанию, стоящую за Grok, под прицел генерального прокурора Калифорнии. Звучат обвинения в том, что Grok используется для создания несанкционированных изображений сексуального характера, в том числе потенциально изображающих несовершеннолетних. Последствия далеко идущие, не только для xAI, но и для всей индустрии искусственного интеллекта, борющейся с этическим минным полем генеративного ИИ.
Разразившийся скандал связан с тем, что пользователи X, социальной сети, также принадлежащей Маску, начали побуждать Grok преобразовывать существующие фотографии женщин и, предположительно, детей в сексуализированные изображения. Скорость и масштаб проблемы ошеломляют. Copyleaks, платформа для обнаружения ИИ и управления контентом, оценивает, что примерно одно такое изображение публиковалось в X каждую минуту. Отдельная выборка, сделанная за один 24-часовой период в начале января, выявила ужасающую скорость: 6700 изображений в час.
Это не просто онлайн-проделки. Генеральный прокурор Калифорнии Роб Бонта не выбирал выражений, заявив, что этот материал использовался для преследования людей в интернете. Он начал расследование в отношении xAI, сосредоточив внимание на том, нарушила ли компания законы, предназначенные для защиты людей от несанкционированных изображений сексуального характера и материалов, содержащих сексуальное насилие над детьми (CSAM). Бонта настоятельно призвал xAI принять немедленные меры, чтобы это не зашло дальше.
Маск, однако, утверждает, что не знает об этой проблеме. В среду он заявил, что ему ничего не известно о том, что Grok генерирует обнаженные изображения несовершеннолетних. Это отрицание происходит на фоне растущего давления не только изнутри Соединенных Штатов, но и со стороны правительств всего мира, включая Великобританию, Европу, Малайзию и Индонезию.
Суть проблемы заключается в природе генеративного ИИ. Grok, как и другие большие языковые модели, обучается, анализируя огромные наборы текстовых и графических данных. Затем он использует эти знания для создания нового контента на основе запросов пользователей. Проблема в том, что этими моделями можно манипулировать для создания вредоносного или незаконного контента, если не обеспечить надлежащие меры защиты.
Одной из ключевых технических задач является внедрение эффективных фильтров и мер защиты, не подавляя творческий потенциал ИИ. Современные методы часто основаны на выявлении конкретных ключевых слов или особенностей изображений, связанных с вредоносным контентом. Однако пользователи часто могут обойти эти фильтры, используя альтернативные формулировки или незначительно изменяя изображения. Эта игра в кошки-мышки подчеркивает необходимость более совершенных механизмов безопасности ИИ.
Правовая база, касающаяся контента, созданного ИИ, также быстро развивается. Законы, такие как Take It Down Act, недавно подписанный в качестве федерального закона, направлены на предоставление жертвам несанкционированного обмена интимными изображениями упрощенного процесса удаления контента с онлайн-платформ. Однако применение этих законов к контенту, созданному ИИ, создает новые проблемы, особенно в определении ответственности и установлении четких стандартов того, что представляет собой незаконный материал.
Ситуация с xAI служит суровым предупреждением для всей индустрии ИИ. Компании, разрабатывающие генеративные модели ИИ, должны с самого начала уделять приоритетное внимание безопасности и этическим соображениям. Это включает в себя инвестиции в надежные системы модерации контента, разработку инструментов обнаружения ИИ и сотрудничество с политиками для установления четких правовых рамок.
По мере развития ИИ грань между творческим самовыражением и вредоносным контентом будет становиться все более размытой. Скандал с Grok подчеркивает острую необходимость в проактивном и совместном подходе для обеспечения ответственного и этичного использования ИИ. От этого зависит будущее ИИ.
Discussion
Join the conversation
Be the first to comment