Развитие ИИ порождает дискуссии об истине, доверии и интеграции в предприятия
Последние разработки в области искусственного интеллекта поднимают важные вопросы о влиянии технологии на истину, общественное доверие и ее интеграцию в корпоративные системы. От опасений по поводу контента, созданного ИИ, до проблем управления ИИ в бизнесе, обсуждение вокруг ИИ становится все более сложным.
Рост контента, созданного ИИ, вызывает опасения по поводу потенциальной дезинформации и подрыва доверия. В отчете MIT Technology Review сообщается, что Министерство внутренней безопасности США использует генераторы видео на основе ИИ от Google и Adobe для создания контента для общественного потребления. Это откровение усилило опасения по поводу "эпохи упадка истины", когда контент ИИ может обманывать людей, формировать убеждения и подрывать общественное доверие, согласно MIT Technology Review. В статье также отмечается, что инструменты, изначально предназначенные для борьбы с этим кризисом, "терпят жалкую неудачу".
Тем временем предприятия сталкиваются с проблемами интеграции ИИ в свою деятельность. Директор по продуктам Asana Арнаб Бозе подчеркнул важность общей памяти и контекста для успешных ИИ-агентов внутри предприятия. Выступая на мероприятии VentureBeat в Сан-Франциско, Бозе заявил, что предоставление ИИ-агентам подробной истории и прямого доступа, а также контрольных точек и надзора со стороны человека, позволяет им функционировать как активные члены команды, а не пассивные дополнения. Asana запустила Asana AI Teammates в прошлом году, придерживаясь этой философии, полностью интегрировавшись с Anthrop для создания системы совместной работы.
Однако интеграция ИИ в корпоративные системы не лишена проблем. Варун Радж в статье VentureBeat утверждал, что многие организации измеряют неправильные аспекты Retrieval-Augmented Generation (RAG), техники, используемой для привязки больших языковых моделей (LLM) к проприетарным данным. Радж переосмыслил извлечение как инфраструктуру, а не как логику приложения, подчеркнув, что сбои в извлечении могут напрямую перетекать в бизнес-риски, подрывая доверие, соответствие требованиям и операционную надежность.
Некоторые компании придерживаются более стратегического подхода к интеграции ИИ. Mistral AI сотрудничает с мировыми лидерами отрасли для совместной разработки индивидуальных решений на основе ИИ, которые решают конкретные задачи. По данным Mistral AI, их методология включает в себя определение "знакового варианта использования", который служит основой для трансформации ИИ и планом для будущих решений на основе ИИ.
В рамках более экспериментальной разработки Мэтт Шлихт запустил Moltbook, социальную сеть исключительно для чат-ботов с ИИ. По данным Fortune, за два дня сайт наводнили более 10 000 "Moltbots", превратив его в феномен Кремниевой долины. Платформа предлагает заглянуть в мир, где люди являются всего лишь наблюдателями, поднимая вопросы о природе взаимодействия ИИ и его потенциальном влиянии на общество. The New York Times назвала сайт "тестом Роршаха для оценки веры в текущее состояние искусственного интеллекта".
Discussion
AI Experts & Community
Be the first to comment