Генеральный прокурор Калифорнии Роб Бонта в пятницу направил компании xAI предписание о прекращении противоправных действий, требуя от компании немедленно прекратить создание и распространение дипфейков, интимных изображений, созданных без согласия, и материалов, содержащих изображения сексуального насилия над детьми (CSAM). Эти действия последовали за более ранним заявлением офиса генерального прокурора о том, что он проводит расследование в отношении xAI, стартапа в области искусственного интеллекта, принадлежащего Илону Маску, в связи с сообщениями о том, что его чат-бот Grok используется для создания сексуальных изображений женщин и несовершеннолетних без их согласия.
Офис генерального прокурора утверждает, что xAI способствует крупномасштабному производству откровенных изображений, созданных без согласия, которые затем используются для преследования женщин и девочек в интернете. "Сегодня я направил компании xAI предписание о прекращении противоправных действий, требуя от компании немедленно прекратить создание и распространение дипфейков, интимных изображений, созданных без согласия, и материалов, содержащих изображения сексуального насилия над детьми", - заявил Бонта в пресс-релизе. "Создание этих материалов является незаконным. Я полностью ожидаю, что xAI немедленно выполнит это требование. В Калифорнии нулевая терпимость к CSAM".
В центре споров находится функция Grok "spicy mode" ("острый режим"), которую xAI создала, чтобы обеспечить более свободные и потенциально противоречивые ответы от ИИ. Эта функция, хотя и была задумана для расширения границ взаимодействия с ИИ, по-видимому, открыла дверь для создания вредоносного и незаконного контента. Дипфейки, представляющие собой синтетические медиафайлы, сгенерированные ИИ, могут убедительно изображать людей, делающих или говорящих то, чего они никогда не делали, что вызывает серьезные опасения по поводу клеветы, нарушения конфиденциальности и возможности злоупотребления при создании порнографии без согласия.
Офис генерального прокурора дал xAI пять дней, чтобы продемонстрировать, что она предпринимает конкретные шаги для решения этих проблем. Расследование подчеркивает растущие проблемы регулирования контента, созданного ИИ, и потенциальную возможность злоупотребления мощными инструментами ИИ. Оно также поднимает вопросы об ответственности разработчиков ИИ за предотвращение использования их технологий в злонамеренных целях.
Рост числа генеративных моделей ИИ, таких как Grok, вызвал дебаты об этических последствиях ИИ и необходимости надежных мер защиты. Эксперты подчеркивают важность разработки систем ИИ со встроенными механизмами безопасности и политиками модерации контента для предотвращения создания и распространения вредоносного контента. Расследование, проводимое генеральным прокурором Калифорнии в отношении xAI, является частью более широких усилий по привлечению технологических компаний к ответственности за потенциальный вред, причиненный их технологиями ИИ, и по защите людей от онлайн-эксплуатации и злоупотреблений. Исход этого расследования может создать прецедент для того, как регулируются компании, занимающиеся разработкой ИИ, и как они несут ответственность за контент, создаваемый их платформами.
Discussion
Join the conversation
Be the first to comment