xAI запустила Grok Business и Grok Enterprise, новые уровни своего AI-ассистента, предназначенные для использования в организациях, на фоне продолжающихся споров вокруг дипфейков, созданных без согласия с использованием общедоступной версии платформы. Новые корпоративные предложения обеспечивают масштабируемый доступ к передовым AI-моделям xAI, включая Grok 3, Grok 4 и Grok 4 Heavy, которые, по утверждению компании, являются одновременно высокопроизводительными и экономически эффективными.
Grok Business, стоимостью 30 долларов за место в месяц, призван предоставить командам безопасный доступ к возможностям Grok, в то время как Grok Enterprise предлагает расширенные административные средства контроля, гарантии конфиденциальности и премиальный уровень изоляции под названием Enterprise Vault. По данным xAI, эти функции разработаны для удовлетворения строгих требований безопасности и соответствия нормативным требованиям крупных организаций.
Однако запуск омрачен критикой в отношении общедоступной версии Grok, которая была замешана в создании и распространении созданных с помощью AI манипуляций с изображениями без согласия, особенно с участием женщин, инфлюенсеров и несовершеннолетних. Это привело к негативной реакции общественности, пристальному вниманию со стороны регулирующих органов и подняло вопросы о способности xAI внедрить адекватные меры защиты.
Этот спор подчеркивает сложные этические проблемы, связанные с генеративным AI. Дипфейки, или синтетические медиа, созданные с использованием AI, могут использоваться для распространения дезинформации, нанесения ущерба репутации и даже причинения эмоциональных страданий людям, изображенным без их согласия. Инцидент подчеркивает необходимость надежной политики модерации контента и технологических решений для обнаружения и предотвращения создания и распространения вредоносных дипфейков.
"Это не был бы новый запуск xAI без очередного предотвратимого спора, отвлекающего от мощных и потенциально полезных новых функций для предприятий", - написал Карл Франзен в VentureBeat.
Ситуация также поднимает более широкие вопросы об ответственности разработчиков AI за прогнозирование и смягчение потенциального злоупотребления их технологиями. По мере того, как AI-модели становятся все более мощными и доступными, риск злонамеренного применения возрастает, что требует от разработчиков уделять приоритетное внимание безопасности и этическим соображениям.
Нормативно-правовая база, регулирующая дипфейки, все еще развивается. В ряде юрисдикций рассматривается или уже внедрено законодательство, направленное на борьбу с созданием и распространением синтетических медиа без согласия. Эти законы часто направлены на привлечение к ответственности лиц, создающих или распространяющих дипфейки со злым умыслом.
xAI пока не опубликовала всеобъемлющего заявления, касающегося конкретных обвинений, связанных с дипфейками, созданными без согласия. Реакция компании на этот спор и ее усилия по внедрению более строгих мер защиты, вероятно, будут внимательно отслеживаться регулирующими органами, группами защиты интересов и общественностью. Будущий успех Grok Business и Grok Enterprise может зависеть от способности xAI восстановить доверие и продемонстрировать приверженность ответственному развитию AI.
Discussion
Join the conversation
Be the first to comment