Разработка ИИ сталкивается с дефицитом доверия, в то время как сфера применения варьируется от порнографии до генерации кода
Согласно недавнему опросу, разработка искусственного интеллекта сталкивается с "парадоксом доверия", поскольку многие организации испытывают трудности с масштабированием ИИ за пределы первоначальных пилотных программ. Между тем, сфера применения ИИ быстро расширяется: одни модели генерируют порнографию, а другие демонстрируют передовые возможности кодирования, что вызывает опасения по поводу вытеснения рабочих мест и этических соображений.
Третий ежегодный опрос Informatica среди директоров по данным (CDO), охватывающий 600 руководителей по всему миру, показал, что, хотя 69% предприятий внедрили генеративный ИИ, а 47% экспериментируют с ним, существует значительный пробел в управлении. Опрос показал, что 76% руководителей, отвечающих за данные, не могут контролировать то, что уже используют сотрудники. Этот разрыв объясняет, почему многие организации испытывают трудности с переходом от экспериментов с ИИ к производственному масштабу, сообщает VentureBeat.
В дополнение к сложности, новое исследование Google предполагает, что передовые модели рассуждений достигают высокой производительности, имитируя дебаты, подобные многоагентным, с участием различных точек зрения. Эти "общества мысли", как их называют исследователи, значительно улучшают производительность модели в сложных задачах рассуждения и планирования. Исследователи обнаружили, что ведущие модели рассуждений, такие как DeepSeek-R1 и QwQ-32B, изначально развивают эту способность без явных инструкций, предлагая разработчикам дорожную карту для создания более надежных приложений LLM, а предприятиям - для обучения превосходных моделей с использованием собственных внутренних данных, сообщает VentureBeat.
Однако быстрое развитие ИИ также вызывает этические опасения. Анализ, проведенный исследователями из Стэнфорда и Университета Индианы, показал, что гражданская онлайн-площадка для контента, созданного ИИ, поддерживаемая Andreessen Horowitz, позволяет пользователям покупать пользовательские файлы инструкций для создания дипфейков знаменитостей. По данным MIT Technology Review, некоторые из этих файлов были специально разработаны для создания порнографических изображений, запрещенных на сайте. Исследование показало, что в период с середины 2023 года до конца 2024 года значительная часть запросов на сайте приходилась на дипфейки реальных людей, и 90% этих запросов дипфейков были направлены против женщин.
Разнообразные возможности моделей ИИ вызывают как восторг, так и беспокойство. MIT Technology Review отметила, что, хотя некоторые модели, такие как Grok, используются для создания порнографии, другие, такие как Claude Code, могут выполнять сложные задачи, такие как создание веб-сайтов и чтение МРТ. Это привело к опасениям, особенно среди поколения Z, по поводу потенциального воздействия ИИ на рынок труда. Тревожные новые исследования показывают, что ИИ окажет сейсмическое воздействие на рынок труда в этом году.
Сама индустрия ИИ сталкивается с внутренними противоречиями. Бывший главный научный сотрудник Meta по ИИ, Ян ЛеКун, публично делится своими взглядами, в то время как Илон Маск и OpenAI направляются в суд, что создает еще большую неопределенность в этой области, сообщает MIT Technology Review.
Discussion
Join the conversation
Be the first to comment