Развитие ИИ вызывает дебаты об этике, возможностях и влиянии
Искусственный интеллект продолжает стремительно развиваться, вызывая как восторг, так и беспокойство в различных секторах. Последние разработки подчеркивают потенциал технологии, но также поднимают вопросы о ее этических последствиях и влиянии на общество.
Расположенная в Сан-Франциско AI-лаборатория Arcee привлекла внимание выпуском своей крупнейшей на сегодняшний день открытой языковой модели Trinity Large, смеси экспертов (MoE) с 400 миллиардами параметров, которая теперь доступна в предварительной версии, сообщает VentureBeat. Arcee также выпустила "сырую" контрольную модель Trinity-Large-TrueBase, которая позволяет исследователям изучить, как выглядит разреженная MoE с 400B параметрами до какой-либо тонкой настройки. Компания получила признание в прошлом году за то, что была одной из немногих американских компаний, которая обучает большие языковые модели (LLM) с нуля и выпускает их под открытыми или частично открытыми лицензиями, позволяя разработчикам и предприятиям настраивать их.
Между тем, новое исследование Google предполагает, что передовые модели рассуждений достигают высокой производительности, имитируя дебаты, подобные многоагентным, с участием различных точек зрения, черт личности и экспертных знаний в предметной области, сообщает VentureBeat. Эти внутренние дебаты, получившие название "общество мысли", значительно улучшают производительность модели в сложных задачах рассуждения и планирования. Исследователи обнаружили, что ведущие модели рассуждений, такие как DeepSeek-R1 и QwQ-32B, изначально развивают эту способность без явных инструкций.
Однако быстрое развитие ИИ также вызывает этические опасения. Анализ, проведенный исследователями из Стэнфорда и Университета Индианы, показал, что гражданская онлайн-площадка для покупки и продажи контента, сгенерированного ИИ, поддерживаемая Andreessen Horowitz, позволяет пользователям покупать пользовательские файлы инструкций для создания дипфейков знаменитостей, сообщает MIT Technology Review. Исследование показало, что в период с середины 2023 года до конца 2024 года значительная часть запросов на сайте приходилась на дипфейки реальных людей, и 90% этих запросов на дипфейки были направлены против женщин. Некоторые файлы были специально разработаны для создания порнографических изображений, запрещенных сайтом.
Возможности ИИ также вызывают беспокойство о будущем работы. MIT Technology Review сообщила, что "тревожные новые исследования говорят о том, что ИИ окажет сейсмическое воздействие на рынок труда в этом году". В статье также отмечаются контрастные возможности различных моделей ИИ, заявляя: "Grok - это порнографическая машина. Claude Code может делать все, от создания веб-сайтов до чтения вашей МРТ".
Растущая известность ИИ также привела к внутренней напряженности в технологической индустрии. MIT Technology Review отметила, что "AI-компании набрасываются друг на друга, как в последнем акте фильма о зомби", при этом бывший главный научный сотрудник Meta по ИИ, Ян ЛеКун, "проливает чай", а Илон Маск и OpenAI направляются в суд.
Развитие ИИ побуждает технологических лидеров высказываться. Wired отметила, что после президентских выборов 2016 года технологические генеральные директора, такие как Марк Цукерберг и Тим Кук, начали говорить о влиянии технологий на общество.
Discussion
Join the conversation
Be the first to comment