La inteligencia artificial (IA) atraviesa una evolución: ya no se limita a responder indicaciones humanas, sino que avanza hacia la IA agéntica, capaz de actuar con autonomía. Un reciente artículo de Página/12 (08 de julio de 2025) describe este salto con claridad: mientras la IA tradicional responde a prompts, los agentes agénticos planifican y ejecutan tareas complejas por sí mismos, marcando lo que algunos dirigentes de la industria llaman la “próxima frontera” de la IA.
¿Qué es la IA agéntica?
Según Página/12, estos sistemas se basan en grandes modelos de lenguaje (ChatGPT, Gemini, Claude), pero con una arquitectura ad hoc que incluye acceso a herramientas externas como APIs, gestores, bases de datos, etc., dándoles mayor autonomía y precisión.
Complementando esta idea, IBM la define como un sistema que alcanza objetivos “con supervisión limitada”, integrando múltiples agentes que se coordinan para resolver problemas . La Wikipedia añade que estos agentes aprenden continuamente gracias al aprendizaje por refuerzo y redes neuronales profundas, incluso en industrias como ciberseguridad, fabricación o finanzas .
¿Dónde se ve hoy?
Página/12 describe un ejemplo claro: una IA que compra un lavarropas, verifica stock, financia la compra, gestiona el envío y registra todo en postventa, sin intervención humana .
Otros ejemplos:
- Claude Desktop: agentes conectados a GitHub, Excel y bases de datos.
- Plataformas empresariales que coordinan compras automatizadas o flujos de trabajo repetitivos.
¿Por qué es relevante?
La IA agéntica representa un cambio de paradigma: la IA pasa de ser reactiva a proactiva y autónoma, capaz de ejecutar flujos de trabajo sin prompts humanos constantes .
Según NVIDIA, es la “próxima frontera” porque introduce planificación iterativa para resolver problemas en múltiples pasos . Gartner estima que para 2028, un tercio del software incorporará agentes .
Desafíos éticos y técnicos
Página/12 advierte: otorgarles demasiada autonomía puede ser peligroso, afectando empleos y generando decisiones no deseadas .
Otros riesgos señalados por fuentes complementarias:
- Transparencia y trazabilidad: es clave comprender cómo toman decisiones y registrar cada paso .
- Sistemas híbridos: se necesita supervisión humana y puntos de control (“pausas”), para evitar la pérdida de contexto.
- Seguridad y sesgo: modelos mal regulados pueden actuar con decisiones erróneas o discriminatorias .
¿Y ahora qué sigue?
Página/12 releva que Google ya lanzó un protocolo para que agentes de distintas empresas se comuniquen entre sí, promoviendo ecosistemas colaborativos . Para 2028, se proyecta que un 33 % del software incluirá IA agéntica.
Además, Gartner posiciona a esta tendencia como de alto impacto a 6–8 años vista.
La IA agéntica representa un salto transformador: de asistentes pasivos a agentes autónomos capaces de planificar, aprender y actuar. Su adopción promete eficiencia en múltiples industrias, pero conlleva riesgos que exigen una gobernanza robusta, transparencia y supervisión humana.