Los agentes de IA prometen pasar de responder preguntas a ejecutar tareas. Pero sin gobierno, arquitectura e integración, el riesgo es multiplicar pilotos sin control.
La primera ola de inteligencia artificial generativa en empresas estuvo marcada por asistentes conversacionales: herramientas capaces de responder preguntas, resumir documentos, generar contenido o apoyar tareas individuales. La siguiente etapa apunta a algo más ambicioso: agentes capaces de ejecutar acciones, coordinar flujos y operar sobre sistemas.
Este cambio es relevante porque mueve la IA desde la productividad personal hacia la productividad operacional. Un agente no solo responde; puede buscar información, consultar sistemas, preparar reportes, abrir tickets, monitorear eventos, recomendar acciones o activar flujos bajo ciertas reglas.
La expectativa ejecutiva es alta. BCG reporta que cerca del 90% de los CEOs cree que los agentes de IA permitirán reportar ROI medible en 2026, y que más del 30% de la inversión en IA de sus organizaciones se destinaría a agentic AI.
Pero el entusiasmo debe equilibrarse con criterio. Gartner, citado por Reuters, proyectó que más del 40% de los proyectos de agentic AI serían cancelados hacia fines de 2027 por costos crecientes y falta de claridad en el valor de negocio. También advirtió sobre el “agent washing”: soluciones que se presentan como agentes, pero que en realidad no tienen capacidades autónomas significativas.
La conclusión es clara: los agentes pueden ser una oportunidad relevante, pero no deberían implementarse como experimentos desordenados. Requieren casos de uso bien delimitados, permisos controlados, trazabilidad, monitoreo, gestión de errores, seguridad, integración con sistemas y claridad sobre qué decisiones pueden ejecutar y cuáles deben escalar a personas.
En una empresa, un agente mal gobernado puede generar riesgos: respuestas incorrectas, acciones no autorizadas, exposición de información, duplicación de procesos o falta de accountability. Un agente bien diseñado, en cambio, puede convertirse en una capa inteligente sobre procesos existentes.
El punto de partida no debería ser “construyamos un agente”, sino “qué flujo de trabajo queremos mejorar”. Desde ahí se define si corresponde un chatbot, una automatización, un motor de reglas, un modelo predictivo o un agente con capacidad de acción.
Agentic AI no se trata de reemplazar personas por bots autónomos. Se trata de diseñar sistemas capaces de ejecutar tareas bajo reglas claras, con control, seguridad y foco en valor.