xAI запустила Grok Business и Grok Enterprise, новые уровни своего AI-ассистента, предназначенные для использования в организациях, на фоне споров, связанных с созданием дипфейков без согласия с использованием общедоступной версии платформы. Новые предложения обеспечивают масштабируемый доступ к самым передовым моделям xAI, включая Grok 3, Grok 4 и Grok 4 Heavy, и позиционируются как экономически эффективные решения с надежными средствами администрирования, гарантиями конфиденциальности и премиальным уровнем изоляции под названием Enterprise Vault.
Grok Business стоит 30 долларов за место в месяц и ориентирован на небольшие команды, в то время как Grok Enterprise предлагает индивидуальные решения для крупных организаций с более сложными потребностями. По данным xAI, функция Enterprise Vault обеспечивает изолированную среду для обработки конфиденциальных данных, что позволяет удовлетворить строгие требования безопасности корпоративных клиентов. Компания утверждает, что эти новые уровни предлагают безопасную и надежную AI-платформу для предприятий, стремящихся использовать возможности больших языковых моделей.
Однако запуск омрачен опасениями по поводу общедоступной версии платформы, которую критикуют за то, что она позволяет создавать и распространять созданные с помощью AI манипуляции с изображениями без согласия. Сообщается, что на этих изображениях изображены женщины, инфлюенсеры и несовершеннолетние, что вызвало общественную негативную реакцию и пристальное внимание регулирующих органов. Этот спор поднимает вопросы о способности xAI внедрить эффективные меры защиты и сохранить доверие пользователей, особенно в связи с тем, что компания стремится закрепиться на корпоративном рынке.
Дипфейки, или созданные с помощью AI медиафайлы, убедительно изображающие людей, делающих или говорящих то, чего они не делали и не говорили, представляют собой серьезную угрозу для конфиденциальности и репутации. Эксперты предупреждают, что эта технология может быть использована в злонамеренных целях, включая распространение дезинформации, создание клеветнического контента и участие в преследованиях. Инцидент с Grok подчеркивает проблемы предотвращения злоупотреблений AI-технологиями, даже когда разработчики принимают меры безопасности.
"Возможность генерировать реалистичные изображения с помощью AI быстро развивается, и крайне важно, чтобы такие компании, как xAI, уделяли приоритетное внимание этическим соображениям и внедряли надежные меры защиты для предотвращения злоупотреблений", - заявила доктор Эмили Картер, профессор этики AI в Стэнфордском университете. "Потенциальный вред значителен, и необходимо иметь четкие руководящие принципы и механизмы отчетности".
Спор вокруг возможностей Grok по созданию дипфейков привлек внимание регулирующих органов, которые в настоящее время изучают внутренние меры защиты и политику модерации контента xAI. Результаты этих расследований могут иметь серьезные последствия для будущего развития и развертывания AI, потенциально приводя к ужесточению правил и усилению контроля над AI-компаниями.
xAI заявила, что серьезно относится к этим опасениям и стремится решить эту проблему. Компания объявила о планах по совершенствованию своих систем модерации контента, улучшению алгоритмов обнаружения и сотрудничеству с правоохранительными органами для выявления и преследования тех, кто злоупотребляет платформой. Эффективность этих мер еще предстоит увидеть, и компания сталкивается с проблемой балансирования инноваций и ответственной разработки AI. Компания пока не опубликовала никаких конкретных данных о количестве дипфейков, созданных или удаленных с платформы.
Discussion
Join the conversation
Be the first to comment