NUCBA
5 de marzo de 2026
Inteligencia Artificial

¿Qué son los agentes de inteligencia artificial?

Un agente de IA percibe, decide y actúa de forma autónoma. Te explico cómo funcionan, frameworks reales y cuándo usarlos (con ejemplos prácticos).

Equipo NUCBA

Equipo NUCBA

7 min de lectura

¿Qué son los agentes de inteligencia artificial?

Un agente de IA es un sistema que percibe su entorno, toma decisiones y actúa de forma autónoma para alcanzar objetivos específicos. A diferencia de un modelo de lenguaje que espera tu pregunta para responder, un agente puede iniciar acciones, usar herramientas, recordar contexto y ejecutar tareas complejas sin que estés dirigiendo cada paso.

Pensalo así: ChatGPT es como un consultor brillante que responde lo que le preguntás. Un agente de IA es como un asistente que puede abrir tu calendario, buscar información en múltiples fuentes, escribir un email, programar una reunión y confirmarte todo sin que tengas que pedirle cada paso individual.

Componentes principales de un agente de IA

Todo agente funciona con tres capacidades centrales:

Percepción del entorno: el agente recibe información de su contexto. Puede ser un sensor de temperatura, datos de una API, el contenido de un email o lo que escribiste en un chat.

Toma de decisiones: basándose en lo que percibe y sus objetivos, decide qué hacer. Acá es donde entra el modelo de IA (como GPT-4, Claude, Llama) que razona sobre la siguiente mejor acción.

Ejecución de acciones: no solo piensa, actúa. Puede llamar a una API, ejecutar código, enviar mensajes, actualizar bases de datos o interactuar con otras herramientas.

Un ejemplo concreto: un agente de customer support percibe la consulta de un usuario, busca en la base de conocimiento, identifica que necesita información de su cuenta, consulta la API de CRM, compone una respuesta personalizada y la envía. Todo eso sin intervención humana.

Diferencia clave: agente vs. modelo de lenguaje

Un LLM (Large Language Model) como GPT-4 es el cerebro. Un agente es el cerebro + brazos + piernas + herramientas.

Modelo de lenguaje puro:

  • Recibe un prompt, genera texto
  • No tiene memoria entre sesiones (sin estado)
  • No puede ejecutar acciones reales
  • Funciona en un loop request-response

Agente de IA:

  • Mantiene estado y memoria entre interacciones
  • Puede planificar secuencias de acciones
  • Accede y usa herramientas externas (APIs, bases de datos, código)
  • Decide cuándo necesita más información y la busca
  • Itera hasta completar el objetivo

Tipos de agentes según su arquitectura

Agentes reactivos simples

Responden directamente a estímulos del entorno con reglas predefinidas. Si detectan X, hacen Y. Son rápidos pero limitados.

Ejemplo real: un bot que responde "Nuestro horario es de 9 a 18hs" cada vez que alguien pregunta por horarios de atención.

Agentes basados en modelos

Mantienen un modelo interno de cómo funciona el mundo. Pueden inferir información que no perciben directamente.

Ejemplo real: un agente de ruteo de entregas que estima demoras por tráfico aunque no tenga sensor en cada esquina, basándose en patrones históricos.

Agentes basados en objetivos

Planifican secuencias de acciones para alcanzar metas específicas. Evalúan diferentes caminos y eligen el más prometedor.

Ejemplo real: un agente de trading que analiza mercados, ejecuta órdenes, monitorea resultados y ajusta estrategia para maximizar retorno dentro de límites de riesgo.

Agentes basados en utilidad

Optimizan por múltiples factores con pesos distintos. No solo buscan alcanzar el objetivo, sino hacerlo de la mejor manera posible según criterios definidos.

Ejemplo real: un agente de scheduling que coordina reuniones considerando prioridades, zonas horarias, preferencias de cada participante y tiempo entre reuniones.

Frameworks y herramientas reales

LangChain / LangGraph: el más popular para construir agentes en Python. Te da componentes para memoria, herramientas, chains y un sistema de "agente executor" que decide qué tool llamar.

from langchain.agents import initialize_agent, Tool
from langchain.llms import OpenAI

tools = [
    Tool(
        name="Calculator",
        func=calculator.run,
        description="útil para cálculos matemáticos"
    ),
    Tool(
        name="Search",
        func=search.run,
        description="busca información actualizada en internet"
    )
]

agent = initialize_agent(
    tools, 
    llm=OpenAI(temperature=0),
    agent="zero-shot-react-description"
)

# El agente decide qué tool usar según la consulta
agent.run("¿Cuánto es el PBI de Argentina en 2023 dividido por su población?")

AutoGPT / BabyAGI: frameworks de agentes autónomos que se dan sus propios subtareas. Reciben un objetivo macro y generan todo el plan de ejecución.

CrewAI: orquesta múltiples agentes especializados que colaboran. Un agente investiga, otro redacta, otro revisa.

LlamaIndex: más enfocado en agentes que trabajan sobre tus datos privados. Construye índices, hace RAG (Retrieval Augmented Generation) y ejecuta queries complejas.

Casos de uso donde los agentes brillan

Análisis de datos complejo: en lugar de escribir queries SQL manualmente, le das al agente "quiero entender qué productos generan más churn" y él explora las tablas, hace joins, calcula métricas y te devuelve insights.

Automatización de workflows: un agente puede monitorear tu email, identificar facturas, extraer datos, actualizar tu sistema contable y mandarte un resumen semanal.

Research profundo: le pedís investigar un tema técnico y el agente busca en papers, stackoverflow, documentación oficial, sintetiza hallazgos, identifica contradicciones y te arma un reporte.

Testing y QA: agentes que navegan tu aplicación como usuarios reales, encuentran bugs, generan reportes detallados con screenshots y pasos para reproducir.

Limitaciones y riesgos reales

Alucinaciones con consecuencias: si un agente puede ejecutar acciones (borrar archivos, hacer transacciones, enviar emails), una alucinación del LLM puede causar daño real. Necesitás validaciones y límites claros.

Costos imprevisibles: un agente mal configurado puede entrar en loops infinitos llamando APIs costosas. He visto facturas de OpenAI que se fueron a miles de dólares por agentes sin límites de ejecución.

Debugging complejo: cuando un agente falla, no siempre es claro por qué. Tuviste un mal resultado de una tool, el prompt fue ambiguo, el modelo interpretó mal el contexto... Necesitás observability seria.

Dependencia del modelo base: si el LLM tiene un día malo (latencia, caídas, cambios en el modelo), todo el sistema de agentes se degrada. No es un servicio 100% confiable todavía.

Mejores prácticas para implementar agentes

Empezá con un scope acotado

No construyas "un agente que haga todo". Empezá con un caso de uso específico y medible. Por ejemplo: "agente que responde preguntas sobre nuestros docs técnicos" antes que "agente que gestiona todo el customer support".

Implementá human-in-the-loop para acciones críticas

Para operaciones sensibles (transacciones, envío de emails importantes, cambios en producción), el agente debe pedir confirmación humana antes de ejecutar.

Diseñá herramientas con outputs estructurados

Las tools que usa tu agente deberían devolver JSON o estructuras claras, no texto libre. Eso mejora dramáticamente la capacidad del agente de interpretar resultados y tomar decisiones.

Loguea todo

Necesitás ver cada decisión que toma el agente: qué tool llamó, con qué parámetros, qué resultado obtuvo, qué decidió hacer después. LangSmith, Weights & Biases, Helicone son herramientas útiles acá.

Definí límites de ejecución

Máximo de llamadas a APIs, timeout por tarea, presupuesto de tokens. Un agente sin límites es un riesgo.

El futuro: agentes multimodales y colaborativos

Los agentes actuales son principalmente texto. Los siguientes incluyen:

Percepción visual: agentes que ven tu pantalla, identifican problemas de UX, encuentran bugs visuales.

Voz y audio: agentes que participan en reuniones, toman notas, identifican action items y hacen follow-up.

Coordinación multi-agente: equipos de agentes especializados que negocian entre sí para resolver problemas complejos. Un agente-PM que coordina con agente-developer y agente-QA.

Preguntas frecuentes

¿Un agente de IA es lo mismo que un chatbot?

No. Un chatbot tradicional sigue flujos predefinidos o responde con un modelo de lenguaje. Un agente puede planificar, usar herramientas, mantener estado y ejecutar acciones autónomas. Un chatbot es reactivo, un agente es proactivo.

¿Necesito saber programar para crear un agente?

Depende de la complejidad. Existen plataformas no-code como Zapier con agentes básicos o Make. Pero para agentes serios con lógica custom, herramientas específicas y control fino, necesitás código. Python + LangChain es el stack más común.

¿Cuánto cuesta correr un agente de IA?

Variable. Un agente simple con GPT-3.5 puede costar centavos por tarea. Un agente complejo con GPT-4, múltiples llamadas a tools y RAG puede estar en $0.50-$2 por interacción. El costo escala rápido si no ponés límites.

Checklist: ¿Estás listo para implementar un agente?

  • Tenés un caso de uso específico con criterio de éxito medible
  • Definiste qué herramientas/APIs necesita acceder el agente
  • Implementaste logging y observability para debug
  • Configuraste límites de ejecución (rate limits, timeouts, presupuesto)
  • Tenés un plan de human-in-the-loop para acciones críticas
  • Evaluaste el ROI: el costo del agente vs. el tiempo/dinero que ahorra
  • Sabés cómo manejar errores y casos edge cuando el agente falla

¿Te gustó este artículo?

Descubre nuestros cursos y carreras para llevar tus habilidades al siguiente nivel.