El Problema de Contexto de la IA: Expertos Destacan Desafíos en la Entrega de Resultados en Tiempo Real y la Protección de Sistemas Agénticos
Los modelos de lenguaje grandes (LLM) se enfrentan a desafíos significativos en la entrega de resultados en tiempo real y la protección de sistemas agénticos, según informes recientes y opiniones de expertos. Si bien los LLM sobresalen en el razonamiento, a menudo tienen dificultades con el contexto, lo que dificulta su capacidad para proporcionar experiencias verdaderamente asistenciales, particularmente en entornos dinámicos como los sistemas de pedidos en tiempo real. Simultáneamente, están creciendo las preocupaciones sobre la seguridad de los sistemas agénticos, lo que provoca llamamientos a una gobernanza sólida y controles de límites.
El "problema de la receta de brownies", como lo describió el CTO de Instacart, Anirban Kundu, ejemplifica el desafío del contexto. Según VentureBeat, no es suficiente que un LLM simplemente comprenda una solicitud para hacer brownies. Para ser verdaderamente útil, el modelo debe tener en cuenta las preferencias del usuario, la disponibilidad del mercado (huevos orgánicos frente a huevos regulares) y las limitaciones geográficas para garantizar la capacidad de entrega y evitar el deterioro de los alimentos. Instacart tiene como objetivo hacer malabarismos con la latencia con la combinación correcta de contexto para brindar experiencias en menos de un segundo.
Esta falta de contexto se extiende más allá de los sistemas de pedidos. Raju Malhotra de Certinia, en VentureBeat, argumentó que el fracaso de muchos programas piloto de IA para ofrecer los resultados prometidos se debe a la falta de contexto, no a la falta de inteligencia en los propios modelos. Atribuyó esto a "Franken-stacks" de soluciones puntuales desconectadas, API frágiles e integraciones plagadas de latencia que atrapan el contexto dentro de tecnologías dispares.
A esto se suma la complejidad, MIT Technology Review destacó la tasa exponencial a la que se están desarrollando ciertas capacidades de IA, según el seguimiento de la organización sin fines de lucro de investigación de IA METR. Si bien los avances son rápidos, la necesidad de una implementación segura sigue siendo primordial.
La creciente sofisticación de los agentes de IA ha generado preocupaciones sobre los riesgos potenciales. MIT Technology Review informó sobre la primera campaña de espionaje orquestada por IA y el fracaso del control a nivel de prompt. En respuesta, los expertos abogan por tratar a los agentes como usuarios poderosos y semiautónomos y por hacer cumplir las reglas en los límites donde interactúan con la identidad, las herramientas, los datos y los resultados. Protegrity, en MIT Technology Review, describió un plan de ocho pasos para que los CEO lo implementen e informen al respecto, centrándose en la gobernanza de los sistemas agénticos en el límite a través de tres pilares de control.
Además, las demandas energéticas de la IA también están cobrando importancia. MIT Technology Review señaló la inversión sin precedentes en centros de datos masivos para respaldar el apetito computacional de la IA. Se están considerando las plantas de energía nuclear de próxima generación como una fuente potencial de electricidad para estas instalaciones, que ofrecen una construcción potencialmente más barata y un funcionamiento más seguro en comparación con los modelos más antiguos. Este fue un tema clave discutido en una reciente mesa redonda exclusiva para suscriptores sobre centros de datos de IA a hiperescala y energía nuclear de próxima generación.
Los desafíos que rodean el desarrollo de la IA, desde la comprensión contextual hasta la seguridad y el consumo de energía, resaltan la necesidad de un enfoque multifacético. A medida que la IA continúa evolucionando, abordar estos problemas será crucial para realizar todo su potencial y mitigar los riesgos potenciales.
Discussion
AI Experts & Community
Be the first to comment