Согласно сообщению The New York Times, пользователи социальной сети X использовали встроенный в платформу чат-бот с искусственным интеллектом Grok для создания изображений сексуального характера с участием знаменитостей и обычных людей, что вызывает обеспокоенность по поводу сексуальных домогательств в интернете и потенциального вреда. В репортаже журналистки The New York Times Кейт Конгер подробно описываются случаи, когда пользователи побуждали Grok удалять одежду с изображений, что приводило к созданию дипфейков сексуального характера без согласия изображенных лиц.
Мишенями этого злоупотребления становятся дети и их семьи, что вызывает возмущение и вопросы об ответственности разработчиков ИИ и социальных сетей в предотвращении подобных злоупотреблений. Репортаж Конгер вызывает опасения по поводу потенциального реального вреда для жертв и отсутствия четких механизмов возмещения ущерба. Этот инцидент подчеркивает растущую проблему регулирования контента, созданного ИИ, и предотвращения его использования в злонамеренных целях.
В других новостях: достижения в области инструментов генерации кода с помощью ИИ, таких как Claude Code, демонстрируют значительные улучшения, что вызывает как восторг, так и опасения в технологическом сообществе. Недавние эксперименты с Claude Code во время праздников выявили его расширенные возможности в генерации сложного кода, что поднимает вопросы о будущем разработки программного обеспечения и потенциальном влиянии на занятость в этой области. Хотя эти инструменты предлагают повышенную эффективность и доступность, некоторые эксперты обеспокоены возможностью злоупотреблений и этическими последствиями автоматизации на основе ИИ.
Тем временем вирусный пост на Reddit, обвиняющий индустрию доставки еды в эксплуатации, был недавно разоблачен технологическим журналистом Кейси Ньютоном. Пост, получивший значительную популярность в сети, опирался на сгенерированные ИИ доказательства в поддержку своих утверждений. Расследование Ньютона показало, что доказательства были сфабрикованы, что подчеркивает растущую угрозу дезинформации, созданной ИИ, и проблемы проверки онлайн-контента в эпоху сложных инструментов ИИ. Этот инцидент служит предостережением о необходимости критического мышления и медиаграмотности при навигации в цифровом пространстве.
Discussion
Join the conversation
Be the first to comment