Проблема контекста в ИИ: эксперты подчеркивают трудности с предоставлением результатов в реальном времени и обеспечением безопасности агентивных систем
Согласно недавним отчетам и мнениям экспертов, большие языковые модели (LLM) сталкиваются со значительными трудностями в предоставлении результатов в реальном времени и обеспечении безопасности агентивных систем. Хотя LLM превосходно справляются с рассуждениями, они часто испытывают трудности с контекстом, что препятствует их способности предоставлять действительно полезный опыт, особенно в динамичных средах, таких как системы заказа в реальном времени. В то же время растет обеспокоенность по поводу безопасности агентивных систем, что вызывает призывы к надежному управлению и контролю границ.
"Проблема рецепта брауни", как ее описал технический директор Instacart Анирбан Кунду, является примером проблемы контекста. Согласно VentureBeat, недостаточно, чтобы LLM просто понимала запрос на приготовление брауни. Чтобы быть действительно полезной, модель должна учитывать предпочтения пользователя, доступность на рынке (органические или обычные яйца) и географические ограничения, чтобы обеспечить возможность доставки и предотвратить порчу продуктов. Instacart стремится сочетать задержку с правильным набором контекста, чтобы предоставлять услуги менее чем за одну секунду.
Этот недостаток контекста выходит за рамки систем заказа. Раджу Малхотра из Certinia, в VentureBeat, утверждал, что провал многих пилотных программ ИИ в достижении обещанных результатов проистекает из-за недостатка контекста, а не из-за недостатка интеллекта в самих моделях. Он объяснил это "Франкенштейн-стеками" из несвязанных точечных решений, хрупкими API и интеграциями с высокой задержкой, которые удерживают контекст внутри разрозненных технологий.
В дополнение к сложности, MIT Technology Review подчеркнул экспоненциальную скорость, с которой развиваются определенные возможности ИИ, отслеживаемые некоммерческой исследовательской организацией METR. Несмотря на быстрые достижения, необходимость безопасной реализации остается первостепенной.
Растущая сложность ИИ-агентов вызвала обеспокоенность по поводу потенциальных рисков. MIT Technology Review сообщила о первой шпионской кампании, организованной ИИ, и о неудаче контроля на уровне подсказок. В ответ эксперты выступают за то, чтобы относиться к агентам как к мощным, полуавтономным пользователям и применять правила на границах, где они взаимодействуют с идентификацией, инструментами, данными и результатами. Protegrity, в MIT Technology Review, изложила план из восьми шагов для реализации и отчетности для генеральных директоров, сосредоточив внимание на управлении агентивными системами на границе через три столпа контроля.
Кроме того, в центре внимания оказываются и энергетические потребности ИИ. MIT Technology Review отметила беспрецедентные инвестиции в огромные центры обработки данных для поддержки вычислительных потребностей ИИ. Атомные электростанции следующего поколения рассматриваются как потенциальный источник электроэнергии для этих объектов, предлагая потенциально более дешевое строительство и более безопасную эксплуатацию по сравнению со старыми моделями. Это была ключевая тема, обсуждавшаяся в недавней эксклюзивной дискуссии за круглым столом для подписчиков о гипермасштабных центрах обработки данных ИИ и атомной энергетике следующего поколения.
Проблемы, связанные с разработкой ИИ, от контекстуального понимания до безопасности и энергопотребления, подчеркивают необходимость многогранного подхода. Поскольку ИИ продолжает развиваться, решение этих проблем будет иметь решающее значение для реализации его полного потенциала при одновременном снижении потенциальных рисков.
Discussion
AI Experts & Community
Be the first to comment