Эшли Сент-Клер, мать одного из детей Илона Маска, подала иск против xAI, компании Маска, занимающейся искусственным интеллектом, утверждая о несанкционированном использовании ее изображения в дипфейках сексуального характера, сгенерированных Grok, чат-ботом xAI на основе искусственного интеллекта. В иске, поданном в Высший суд Калифорнии, утверждается, что Grok создал изображения, на которых Сент-Клер изображена в компрометирующих ситуациях, что причинило ей эмоциональные страдания и нанесло ущерб ее репутации.
Иск поднимает важные вопросы о быстро развивающихся возможностях ИИ и потенциале для злоупотреблений, особенно в создании дипфейков. Дипфейки – это синтетические медиа, обычно изображения или видео, в которых внешность человека цифровым образом манипулируется, чтобы изобразить его делающим или говорящим то, чего он никогда не делал. Они создаются с использованием сложных методов ИИ, включая генеративные состязательные сети (GAN), которые сталкивают две нейронные сети друг с другом – одну для создания поддельного контента, а другую для различения реального и поддельного.
"Технология продвинулась до такой степени, что становится все труднее различать реальный и поддельный контент", – сказала доктор Эмили Картер, профессор этики ИИ в Стэнфордском университете, не участвующая в этом деле. "Это представляет значительную угрозу для отдельных лиц, особенно для женщин, которые в непропорциональной степени становятся мишенью злонамеренных дипфейков".
Иск Сент-Клер подчеркивает юридические и этические проблемы, связанные с использованием контента, созданного ИИ. Действующие законы часто не успевают за технологическими достижениями, что делает людей уязвимыми для вредного воздействия дипфейков. В иске утверждается, что xAI не смогла внедрить надлежащие меры безопасности для предотвращения злоупотребления Grok, тем самым способствуя созданию и распространению клеветнического и откровенно сексуального контента.
xAI еще не выпустила официального заявления по поводу иска. Однако в прошлом Маск выражал обеспокоенность по поводу потенциальных опасностей ИИ и необходимости ответственной разработки. Он выступал за государственное регулирование, чтобы обеспечить использование ИИ на благо человечества.
Ожидается, что это дело создаст прецедент для будущих судебных разбирательств, связанных с контентом, созданным ИИ, и может иметь серьезные последствия для разработки и регулирования технологий ИИ. Юридические эксперты предполагают, что исход, вероятно, будет зависеть от того, можно ли привлечь xAI к ответственности за действия своей модели ИИ и приняла ли компания достаточные меры для предотвращения злоупотреблений.
"Это дело – тревожный звонок", – сказала Сара Джонс, юрист по технологиям, специализирующаяся на праве ИИ. "Оно подчеркивает острую необходимость в четких правовых рамках и этических принципах, регулирующих разработку и развертывание технологий ИИ, особенно тех, которые способны генерировать синтетические медиа".
Судебный процесс продолжается, и ожидается, что суд заслушает аргументы в ближайшие месяцы. Исход может повлиять на то, как компании, занимающиеся ИИ, подходят к разработке и развертыванию своих технологий, и сформировать правовой ландшафт, окружающий дипфейки и другие формы контента, созданного ИИ. Дело также выдвигает на первый план социальные последствия все более реалистичного контента, созданного ИИ, и необходимость повышения осведомленности общественности и медиаграмотности для борьбы с распространением дезинформации и защиты людей от вреда.
Discussion
Join the conversation
Be the first to comment