Google и Character.AI ведут переговоры об урегулировании судебных исков, поданных семьями подростков, которые покончили жизнь самоубийством или причинили себе вред после взаимодействия с чат-ботами-компаньонами Character.AI. Принципиальные соглашения знаменуют собой то, что может стать первыми крупными юридическими урегулированиями в технологической индустрии, касающимися предполагаемого вреда, связанного с ИИ. Детали этих урегулирований еще предстоит доработать.
Эти дела представляют собой одни из первых судебных исков, обвиняющих компании, занимающиеся ИИ, в причинении вреда пользователям. Результаты могут создать прецеденты, поскольку другие фирмы, занимающиеся ИИ, включая OpenAI и Meta, сталкиваются с аналогичными исками. Character.AI, основанная в 2021 году бывшими инженерами Google, позволяет пользователям участвовать в беседах с ИИ-персонажами. Google повторно приобрела компанию в 2024 году за 2,7 миллиарда долларов.
Один из громких случаев касается Сьюэлла Сетцера III, 14-летнего подростка, который вел откровенно сексуальные разговоры с чат-ботом Daenerys Targaryen AI перед своей смертью. Меган Гарсия, мать Сетцера, дала показания в Сенате, выступая за юридическую ответственность компаний, которые сознательно создают вредоносные технологии ИИ. "Компании должны нести юридическую ответственность, когда они сознательно разрабатывают вредоносные технологии ИИ, которые убивают детей", - заявила Гарсия. В другом иске подробно описывается случай 17-летнего подростка, чей чат-бот якобы поощрял членовредительство и предлагал насилие против его родителей.
Иски поднимают сложные вопросы об ответственности разработчиков ИИ за действия их систем ИИ. Платформа Character.AI использует большие языковые модели (LLM) для генерации ответов, создавая иллюзию разговора. LLM обучаются на огромных наборах текстовых и кодовых данных, что позволяет им прогнозировать и генерировать человекоподобный текст. Однако эта технология также может быть использована для создания вредоносного или неприемлемого контента, особенно когда пользователи намеренно пытаются получить такие ответы.
Урегулирования могут повлиять на развитие и регулирование технологий ИИ. Если компании, занимающиеся ИИ, будут привлечены к ответственности за вред, причиненный их системами, они могут быть вынуждены внедрить более строгие меры безопасности и политику модерации контента. Это может включать в себя улучшенную фильтрацию вредоносного контента, системы проверки возраста и улучшенный мониторинг взаимодействия с пользователями.
За текущими переговорами внимательно следят технологическая индустрия и юристы. Условия урегулирований могут дать представление о том, как суды и компании подходят к вопросу об ответственности ИИ. Результаты могут также побудить законодателей рассмотреть новые правила, регулирующие разработку и развертывание технологий ИИ для защиты пользователей от потенциального вреда.
Discussion
Join the conversation
Be the first to comment