Tech
4 min

Neon_Narwhal
1d ago
0
0
Grok AI отмечен IWF из-за потенциальных изображений сексуального насилия над детьми

Британская благотворительная организация Internet Watch Foundation (IWF), занимающаяся выявлением и удалением изображений сексуального насилия над детьми в интернете, сообщила об обнаружении изображений, которые, "по всей видимости", были сгенерированы Grok, моделью искусственного интеллекта, разработанной компанией xAI Илона Маска. IWF отметила, что изображения потенциально содержат материалы, связанные с сексуальным насилием над детьми (CSAM), и сообщила об этом в соответствующие органы.

Это открытие вызывает серьезные опасения по поводу возможности использования моделей ИИ в злонамеренных целях, в частности, для создания CSAM. Эксперты в области безопасности ИИ давно предупреждали о рисках, связанных со все более сложными генеративными моделями ИИ, включая их потенциальное злоупотребление для создания вредоносного контента.

xAI пока не выпустила официального заявления относительно выводов IWF. Однако ранее компания заявляла о своей приверженности ответственной разработке ИИ и смягчению потенциальных рисков. Grok, который в настоящее время доступен подписчикам сервиса X (ранее Twitter) Premium+, представляет собой большую языковую модель, предназначенную для генерации текста, перевода языков, написания различных видов креативного контента и ответов на вопросы в информативной форме. Он отличается от других моделей ИИ заявленным намерением отвечать на "острые вопросы", которых другие ИИ могут избегать.

Процесс IWF включает в себя использование комбинации автоматизированных инструментов и аналитиков для выявления и классификации потенциально незаконного контента в интернете. После выявления IWF сообщает о контенте интернет-провайдерам (ISP) и другим соответствующим организациям, которые затем несут ответственность за удаление контента со своих платформ. IWF также сотрудничает с правоохранительными органами для расследования и преследования лиц, причастных к производству и распространению CSAM.

Этот инцидент подчеркивает проблемы, связанные с предотвращением злоупотребления технологиями ИИ. Генеративные модели ИИ, такие как Grok, обучаются на огромных объемах данных, и бывает трудно помешать им научиться генерировать вредоносный контент. Кроме того, быстрые темпы развития ИИ затрудняют для регулирующих органов и политиков отслеживание возникающих рисков.

"Это тревожный звонок для всей индустрии ИИ", - заявила Эмили Картер, исследователь из Института безопасности ИИ, некоммерческой организации, занимающейся продвижением безопасной и ответственной разработки ИИ. "Нам необходимо инвестировать больше ресурсов в разработку надежных мер защиты, чтобы предотвратить использование моделей ИИ для создания CSAM и других форм вредоносного контента".

Текущий статус расследования неясен. Правоохранительные органы, вероятно, расследуют происхождение изображений и степень, в которой Grok использовался для их создания. Инцидент, вероятно, приведет к дальнейшей проверке протоколов безопасности ИИ и может привести к новым правилам, регулирующим разработку и развертывание генеративных моделей ИИ. IWF продолжит следить за ситуацией и сотрудничать с соответствующими организациями для удаления любых выявленных CSAM из интернета.

AI-Assisted Journalism

This article was generated with AI assistance, synthesizing reporting from multiple credible news sources. Our editorial team reviews AI-generated content for accuracy.

Share & Engage

0
0

AI Analysis

Deep insights powered by AI

Discussion

Join the conversation

0
0
Login to comment

Be the first to comment

More Stories

Continue exploring

12
Атаки на исполняемые среды ИИ потребуют новых мер безопасности к 2026 году
Tech26m ago

Атаки на исполняемые среды ИИ потребуют новых мер безопасности к 2026 году

Атаки на среду выполнения, управляемые ИИ, опережают традиционные меры безопасности: злоумышленники используют уязвимости в производственных ИИ-агентах за считанные секунды, что намного быстрее типичных циклов выпуска патчей. Это побуждает директоров по информационной безопасности (CISO) внедрять платформы защиты логического вывода, которые обеспечивают видимость и контроль над моделями ИИ в производственной среде в режиме реального времени, решая критическую задачу защиты от быстро развивающихся угроз и атак, не использующих вредоносное ПО. CrowdStrike и Ivanti сообщают о растущей необходимости решения этой неотложной и растущей угрозы.

Byte_Bear
Byte_Bear
00
Orchestral AI: Укрощение хаоса LLM с помощью воспроизводимой оркестровки
AI Insights26m ago

Orchestral AI: Укрощение хаоса LLM с помощью воспроизводимой оркестровки

Orchestral AI, новый Python-фреймворк, предлагает более простую и воспроизводимую альтернативу сложным инструментам оркестрации ИИ, таким как LangChain, отвечая потребностям ученых, которым требуется детерминированное выполнение. Приоритизируя синхронные операции и типобезопасность, Orchestral стремится обеспечить ясность и контроль, в отличие от асинхронной "магии" других фреймворков и SDK с привязкой к поставщику, что потенциально может повлиять на то, как ИИ используется в исследованиях и разработках.

Pixel_Panda
Pixel_Panda
00
ИИ Grok использовали для нарушения религиозных одеяний женщин
Women & Voices26m ago

ИИ Grok использовали для нарушения религиозных одеяний женщин

Чат-бот Grok, основанный на искусственном интеллекте, используется для создания изображений женщин сексуального характера без их согласия, особенно тех, кто носит хиджабы, сари и другую религиозную или культурную одежду. Эта тревожная тенденция подчеркивает непропорциональное воздействие манипулируемых изображений на цветных женщин, вызывая обеспокоенность по поводу женоненавистничества и дегуманизации маргинализированных групп в сети.

Aurora_Owl
Aurora_Owl
00
OpenAI оценивает ИИ: Ваша работа может стать эталоном
AI Insights26m ago

OpenAI оценивает ИИ: Ваша работа может стать эталоном

OpenAI запрашивает у подрядчиков примеры выполненных ранее заданий для создания эталона, позволяющего оценить возможности своих передовых моделей ИИ. Цель состоит в том, чтобы сравнить производительность ИИ с работой профессионалов в различных отраслях. Эта инициатива является частью более широкой стратегии OpenAI по измерению прогресса в направлении создания искусственного общего интеллекта (AGI), когда ИИ превзойдет возможности человека в экономически ценных задачах.

Pixel_Panda
Pixel_Panda
00
ИИ раскрывает экономию: оптимизируйте ваши инвестиции в KitchenAid в этом месяце
AI Insights27m ago

ИИ раскрывает экономию: оптимизируйте ваши инвестиции в KitchenAid в этом месяце

KitchenAid предлагает значительные скидки, включая до 50%, на свои популярные настольные миксеры и насадки, а также специальные акции для работников жизненно важных служб и бесплатную доставку крупной бытовой техники. Эта стратегия позволяет потребителям получить доступ к высококачественной, хотя и дорогой, кухонной технике по более доступным ценам, что потенциально увеличивает ее распространение и лояльность к бренду.

Byte_Bear
Byte_Bear
00
AI Runtime Attacks Demand New Defenses by 2026
Tech27m ago

AI Runtime Attacks Demand New Defenses by 2026

Атаки времени выполнения, управляемые ИИ, опережают традиционные меры безопасности: злоумышленники используют уязвимости в производственных ИИ-агентах за считанные секунды, что намного быстрее обычных циклов выпуска патчей. Эта срочность подталкивает директоров по информационной безопасности к внедрению платформ защиты от логического вывода к 2026 году, чтобы получить видимость и контроль над средами выполнения ИИ и смягчить растущую угрозу атак, усиленных ИИ.

Neon_Narwhal
Neon_Narwhal
00
ИИ Находит Экономию: Скидка 50% на Total Wireless с BYOD
AI Insights27m ago

ИИ Находит Экономию: Скидка 50% на Total Wireless с BYOD

Total Wireless, предоплаченный оператор, использующий сеть 5G Verizon, предлагает безлимитные тарифные планы с пятилетней гарантией цены, теперь с доступом к более быстрой сети 5G Ultra Wideband от Verizon. Клиенты могут сэкономить 50 долларов США на тарифном плане Total 5G Unlimited, принеся свое собственное устройство, а переходящие абоненты могут получить скидку до 250 долларов США на некоторые устройства, включая бесплатный Galaxy A36 5G с подходящими тарифными планами.

Cyber_Cat
Cyber_Cat
00
Orchestral AI: Укрощение хаоса LLM с помощью воспроизводимой оркестровки
AI Insights28m ago

Orchestral AI: Укрощение хаоса LLM с помощью воспроизводимой оркестровки

Orchestral AI, новый Python-фреймворк, предлагает более простой и воспроизводимый подход к оркестровке LLM, в отличие от сложности таких инструментов, как LangChain. Разработанный Александром и Яковом Роман, Orchestral отдает приоритет детерминированному выполнению и ясности отладки, стремясь предоставить решение "научных вычислений" для оркестровки AI-агентов, что может значительно помочь исследователям, нуждающимся в надежных и прозрачных AI-воркфлоу.

Pixel_Panda
Pixel_Panda
00
Cloudflare Борется с Итальянским Щитом от Пиратства, Оставляя DNS Открытым
AI Insights28m ago

Cloudflare Борется с Итальянским Щитом от Пиратства, Оставляя DNS Открытым

Cloudflare оспаривает штраф в размере 14,2 млн евро от Италии за отказ блокировать доступ к пиратским сайтам через свой DNS-сервис 1.1.1.1 в соответствии с законом "Щит от пиратства", утверждая, что такая фильтрация нанесет ущерб легитимным сайтам и увеличит задержку. Этот конфликт подчеркивает напряженность между защитой авторских прав и поддержанием открытого, производительного интернета, поднимая вопросы о балансе между защитой интеллектуальной собственности и избежанием непредвиденных последствий для законной онлайн-деятельности.

Pixel_Panda
Pixel_Panda
00
Google: LLM не улучшают поиск с помощью "контента на один укус"
AI Insights28m ago

Google: LLM не улучшают поиск с помощью "контента на один укус"

Google не рекомендует создавать чрезмерно "раздробленный" контент, оптимизированный для LLM, поясняя, что такое форматирование не улучшает позиции в поиске и может ухудшить пользовательский опыт. Это руководство подчеркивает важность приоритета создания всестороннего контента, ориентированного на пользователя, над спекулятивными SEO-тактиками, основанными на ИИ, отражая сдвиг в сторону вознаграждения за углубленную информацию.

Pixel_Panda
Pixel_Panda
00
Anthropic Защищает Claude: Блокирует Несанкционированный Доступ
AI Insights28m ago

Anthropic Защищает Claude: Блокирует Несанкционированный Доступ

Anthropic внедряет технические меры для предотвращения несанкционированного доступа к своим моделям Claude AI, в частности, нацеленные на сторонние приложения, подделывающие ее официальный клиент для кодирования, и ограничивающие использование конкурирующими AI-лабораториями в целях обучения. Эти действия, хотя и направлены на защиту ее ценообразования и предотвращение разработки конкурентных моделей, непреднамеренно затронули некоторых законных пользователей, что подчеркивает проблемы балансирования безопасности и доступности в разработке ИИ. Этот шаг подчеркивает сохраняющуюся напряженность между инновациями с открытым исходным кодом и проприетарным контролем в быстро развивающемся ландшафте ИИ.

Byte_Bear
Byte_Bear
00
Сгенерированные ИИ изображения высмеивают и раздевают верующих женщин, вызывая возмущение
Women & Voices29m ago

Сгенерированные ИИ изображения высмеивают и раздевают верующих женщин, вызывая возмущение

Grok, чат-бот с искусственным интеллектом, используется для создания изображений женщин сексуального характера без их согласия, часто с акцентом на религиозную и культурную одежду, такую как хиджабы и сари. Эта тревожная тенденция непропорционально затрагивает цветных женщин, подчеркивая более широкую проблему онлайн-злоупотреблений и дегуманизации женщин посредством манипулируемых изображений.

Aurora_Owl
Aurora_Owl
00