ChanlChanl
Operations

Los agentes de IA son geniales. Hasta que no lo son. Cuando devolver el control a los humanos

Los agentes de IA pueden manejar el 80% de las interacciones con clientes sin problemas. El otro 20% es donde tu reputacion se construye o se destruye. Asi es como disenar una escalacion que realmente funcione.

DGDean GroverCo-founderFollow
March 19, 2026
11 min read
Hombre y mujer espalda con espalda en una oficina - Foto por Vitaly Gariev en Unsplash

La mayoria de los equipos despliegan un agente de IA, observan como sube la tasa de contencion y declaran el exito. Luego, tres meses despues, las puntuaciones de satisfaccion del cliente bajan silenciosamente. Los tickets de soporte se acumulan sobre los mismos tipos de interacciones. Alguien revisa las transcripciones y descubre que el agente estaba equivocandose con confianza, una y otra vez, en una clase especifica de conversaciones.

Este es el problema de human-in-the-loop. No la version abstracta y academica. La real: tu IA maneja la mayoria de las cosas bien, pero "la mayoria de las cosas" no es "todo", y necesitas un sistema que sepa la diferencia.

La realidad 80/20 de los despliegues de agentes de IA

La mayoria de los agentes de IA pueden manejar cerca del 80% de las conversaciones sin necesitar ayuda humana. Esa es una linea base razonable para un agente bien configurado con buenas herramientas y una base de conocimiento solida. La verdadera pregunta es que pasa con el otro 20%.

Esas no son fallas aleatorias. Se agrupan alrededor de patrones predecibles: situaciones nuevas para las que el agente no fue entrenado, solicitudes ambiguas donde el agente adivina mal, conversaciones emocionalmente cargadas donde "correcto" no es lo mismo que "util", y decisiones de alto riesgo donde equivocarse tiene consecuencias reales. El 20% es donde tus relaciones con los clientes se construyen o se destruyen.

Aqui esta la verdad incomoda: si no estas disenando activamente para ese 20%, lo estas manejando con negacion. El agente sigue respondiendo. El cliente se frustra cada vez mas. Eventualmente cuelgan o cierran el chat, y nunca sabes por que.

Un enfoque mas inteligente separa "lo que la IA puede manejar con confianza" de "lo que necesita un humano en escena". Esa separacion es de lo que realmente se trata el diseno human-in-the-loop.

Que significa realmente Human-in-the-Loop (tres modelos)

"Human-in-the-loop" se ha convertido en una frase comodin que cubre cosas bastante diferentes. Vale la pena ser especifico sobre cual modelo estas construyendo realmente.

Human-in-the-loop (definicion estricta): un humano revisa o aprueba antes de que se tome una accion. La IA recomienda; el humano decide. Esto se ve en dominios de alto riesgo como aprobaciones de prestamos, triaje medico y deteccion de fraude, donde el costo de un error es demasiado alto para automatizar completamente.

Human-on-the-loop: la IA actua de forma autonoma, pero un humano monitorea y puede intervenir. En experiencia del cliente, esto tipicamente se ve como dashboards en tiempo real, monitoreo de conversaciones en vivo, o un sistema de alertas que se activa cuando el sentimiento cae. El agente sigue funcionando; el humano observa y interviene cuando es necesario.

Revision humana asincrona: las conversaciones se marcan despues del hecho para revision de calidad, coaching y mejora de la IA. Sin intervencion en vivo, pero los patrones se surfacean y retroalimentan el entrenamiento y la configuracion.

La mayoria de los despliegues de agentes de IA en produccion usan los tres, en capas. Escalacion en tiempo real para emergencias. Dashboards de monitoreo para operadores. Revision asincrona con scorecards para mejora continua. El error es tratar cualquiera de ellos como la respuesta completa.

Cuando escalar: cuatro disparadores que realmente funcionan

La pregunta de diseno mas dificil no es si escalar. Es cuando. Escalar de forma demasiado agresiva y estaras creando cuellos de botella en tu equipo humano con conversaciones que la IA podria haber manejado. Escalar de forma demasiado conservadora y los clientes quedan atrapados con un agente que falla mas tiempo del necesario.

Estos cuatro disparadores te llevan la mayor parte del camino.

1. La confianza cae por debajo de tu umbral

Cada modelo produce una senal de confianza. Cuando la IA no esta segura de lo que el cliente esta pidiendo, o no esta segura de que respuesta dar, esa incertidumbre es medible. Establecer un umbral de confianza para escalacion automatica es la forma mas confiable de capturar situaciones antes de que se compliquen.

La parte dificil es calibrarlo. Un umbral demasiado bajo significa escalaciones constantes en cosas que el agente habria manejado bien. Demasiado alto significa que el agente sigue adelante en conversaciones donde ya esta adivinando. Un buen punto de partida: ejecuta una muestra de tus conversaciones fallidas pasadas y observa donde estaba la confianza en el momento en que las cosas salieron mal. Eso te dice donde deberia estar tu umbral.

2. Temas de alto riesgo aparecen en la conversacion

Algunos temas deberian disparar la participacion humana sin importar la confianza. Decisiones financieras por encima de ciertos valores. Preguntas legales. Preocupaciones de seguridad. Cualquier cosa que involucre seguridad de cuentas o fraude. Estas no son situaciones donde "la IA generalmente acierta" es un estandar suficientemente bueno.

Integra la deteccion de temas en tu logica de escalacion. Cuando estas senales aparezcan en la conversacion, escala, incluso si el agente cree que sabe la respuesta.

3. El sentimiento del cliente cruza un umbral

Un agente que no puede leer la frustracion seguira proporcionando informacion alegremente mientras el cliente se enoja cada vez mas. El analisis de sentimiento en tiempo real cambia esto. Cuando el tono del cliente cambia (mas directo, mas negativo, frustracion explicita), esa es una senal para poner a un humano en escena antes de que la relacion se dane.

Esto es especialmente importante para voz. Las palabras pueden ser neutrales pero el tono no, y tu logica de escalacion necesita tener eso en cuenta.

4. La conversacion se ha estancado o entrado en bucle

Si un cliente ha hecho la misma pregunta dos veces y ha recibido respuestas que no la resolvieron, el agente no va a resolverlo magicamente en el tercer intento. La deteccion de preguntas repetidas, patrones de conversacion circular y tiempo prolongado en un solo tema te da otra senal de escalacion confiable.

Piensalo como un detector de callejones sin salida. El cliente esta atascado. El agente esta atascado. Un humano necesita romper el ciclo.

Donde poner humanos en el proceso

Mas alla de cuando escalar, esta el donde: que puntos en el flujo de conversacion se benefician de la participacion humana, y que forma deberia tomar esa participacion.

Pre-conversacion: enrutamiento y triaje

Antes de que una conversacion comience, puedes tomar decisiones sobre que interacciones deberian ir a un agente de IA y cuales deberian ir directamente a un humano. Clientes de alto valor, historiales de quejas conocidos, o ciertos motivos de contacto son buenos candidatos para enrutamiento a humanos primero. Esto no es un fracaso; es buen juicio sobre donde la IA agrega valor y donde no.

Durante la conversacion: transferencia en vivo

La forma mas visible de human-in-the-loop: cuando el agente detecta que esta fuera de su alcance y transfiere la conversacion a un agente en vivo. La calidad de esta transferencia importa enormemente. Una buena transferencia incluye un resumen de lo que el cliente queria, lo que el agente intento y por que esta escalando. Una mala transferencia deja a un humano en medio de una conversacion sin contexto, lo que empeora el problema.

Si tu experiencia de transferencia es mala, los clientes lo notaran incluso si el resto de la conversacion fue bien. Trata la transferencia como un momento de producto, no solo como un respaldo.

Post-conversacion: revision asincrona y coaching

No todas las conversaciones que necesitan atencion humana la necesitan en tiempo real. Mucho del valor en el diseno human-in-the-loop viene de la revision que ocurre despues del hecho. Que conversaciones fueron bien? Cuales no? Donde se salio del guion el agente? Donde no entendio la necesidad real del cliente?

Los scorecards de IA hacen esto manejable a escala. En lugar de leer manualmente miles de transcripciones, la puntuacion estructurada surfacea las interacciones que necesitan atencion, y te da un framework consistente para coaching y mejora.

Continuo: monitoreo y alertas

Human-on-the-loop significa que alguien siempre esta observando el panorama a nivel de sistema. No cada conversacion, sino senales agregadas: tasas de escalacion, tendencias de sentimiento, tasas de resolucion por tema y distribuciones de confianza. Cuando algo cambia (un nuevo tipo de pregunta que el agente no esta manejando, un pico de sentimiento negativo) quieres detectarlo antes de que se convierta en un patron.

Los dashboards de monitoreo en tiempo real son la capa operativa aqui. El objetivo no es observar cada conversacion; es tener suficiente senal para saber cuando algo esta cambiando.

La transferencia que no se siente como un fracaso

Aqui hay una idea contraintuitiva: una buena escalacion deberia sentirse como una funcionalidad, no como un respaldo.

Cuando los clientes llegan a un humano despues de que la IA ha manejado el enrutamiento, recopilado contexto y diagnosticado el problema, el agente humano comienza adelantado respecto a donde habria estado con una llamada en frio. La conversacion es mas rapida. La resolucion es mejor. La experiencia del cliente es mas fluida que si hubiera esperado en una cola telefonica para empezar desde cero.

Esta es la version de human-in-the-loop que la mayoria de los equipos no estan construyendo. Estan construyendo la escalacion como control de danos, algo que sucede cuando la IA falla. El mejor diseno es la escalacion como orquestacion: la IA maneja lo que hace bien, transfiere limpiamente todo lo demas, y todo el sistema produce un mejor resultado del que cualquiera de las partes podria lograr sola.

Llegar ahi requiere algunas cosas. Primero, la IA necesita capturar suficiente contexto durante la conversacion para que la transferencia incluya informacion util. Segundo, la experiencia de transferencia necesita comunicar ese contexto claramente al agente humano. Tercero, el humano necesita herramientas para actuar rapidamente. Y cuarto, lo que sea que haya pasado en esa conversacion necesita retroalimentar la mejora de la IA, para que la misma escalacion ocurra con menos frecuencia con el tiempo.

Escalar la revision humana sin ahogar a tu equipo

La pregunta practica que surge inmediatamente: si estas marcando 15-20% de las conversaciones para revision humana, y estas manejando miles de conversaciones al dia, como se mantiene al dia tu equipo?

La respuesta es que "revision humana" no significa "un humano lee cada transcripcion". Significa que las conversaciones correctas llegan a las personas correctas en el momento correcto.

Algunos enfoques que funcionan a escala:

Muestreo basado en confianza: No necesitas revisar cada conversacion. Necesitas revisar una muestra representativa de las que tienen mayor probabilidad de revelar problemas. Conversaciones de baja confianza, conversaciones con marcas de temas especificos, conversaciones que terminaron en escalacion. Esa muestra te dice que esta saliendo mal sin requerir que leas todo.

Colas impulsadas por scorecards: Cuando los scorecards de IA califican automaticamente cada interaccion, tus revisores humanos ven una cola priorizada. Comienzan con las conversaciones de menor puntuacion, las que probablemente el agente manejo mal. Todo lo demas puede revisarse de forma asincrona o por muestreo.

Revision basada en roles: No todos los revisores humanos necesitan ver todos los tipos de conversacion. Los equipos de cumplimiento revisan conversaciones con exposicion regulatoria. Los equipos de QA revisan conversaciones donde el agente se desvio del comportamiento esperado. Los lideres de equipo revisan conversaciones donde sus agentes tuvieron dificultades. Enrutar la revision a las personas correctas la mantiene manejable.

Cerrar el ciclo: El ROI de la revision humana se multiplica cuando lo que encuentran los revisores alimenta directamente la mejora de la IA. Ejemplos anotados, respuestas corregidas, nuevos casos limite: estos hacen que la IA mejore con el tiempo, lo que significa menos escalaciones, lo que significa menos carga de revision. Los equipos que omiten este paso estan corriendo en una caminadora; los equipos que cierran el ciclo realmente estan progresando.

Sabe cuando tu agente de IA necesita ayuda, antes que los clientes

Los scorecards de IA de Chanl marcan interacciones de baja confianza en tiempo real, para que tu equipo pueda intervenir antes de que una mala experiencia se convierta en una queja.

Comenzar gratis

Las metricas que te dicen si esta funcionando

Necesitas un conjunto pequeno de metricas que te digan si tu diseno human-in-the-loop esta realmente bien calibrado. Esto es lo que importa:

Tasa de escalacion: que porcentaje de conversaciones se escalan a un humano? Si esta por debajo del 3%, probablemente estas perdiendo casos. Si esta por encima del 30%, los umbrales de confianza de tu IA son demasiado conservadores y estas creando trabajo innecesario para tu equipo humano. El numero correcto depende de tu caso de uso, pero la mayoria de los despliegues bien ajustados aterrizan en algun lugar entre 10-20%.

Precision de escalacion: de las conversaciones que se escalan, que porcentaje genuinamente necesitaba participacion humana? Si tus agentes humanos estan recibiendo escalaciones que podrian manejar ellos mismos, tus disparadores estan mal calibrados. Rastrea con que frecuencia los agentes humanos realmente resuelven algo diferente de lo que la IA habria hecho.

Tasa de resolucion post-escalacion: una vez que un humano toma el control, realmente resuelven el problema? Si las tasas de resolucion despues de la escalacion no son materialmente mas altas que la resolucion solo con IA, la escalacion esta ocurriendo pero la transferencia no esta funcionando.

Tasa de contencion por tema: no mires la contencion como un solo numero. Desglosala por tema de conversacion. Una tasa de contencion general del 90% podria estar ocultando una tasa de contencion del 40% en tu tema mas sensible, que es donde realmente necesitas enfocarte.

Tiempo hasta la escalacion: cuanto tiempo espera el cliente en una conversacion antes de que ocurra la escalacion? Si tu agente esta luchando durante varios turnos antes de escalar, estas dejando que la frustracion del cliente se acumule innecesariamente. El objetivo es escalacion temprana ante las senales correctas, no como ultimo recurso.

La tentacion de optimizar para contencion

Algo que vale la pena senalar directamente: la tasa de contencion es una metrica facil de perseguir y peligrosa de sobreoptimizar.

La tasa de contencion mide con que frecuencia los clientes completan una interaccion completa sin un humano. Alta contencion suena bien. Pero una alta tasa de contencion con baja satisfaccion del cliente significa que tu IA esta completando con confianza interacciones que los clientes encuentran insatisfactorias, y simplemente no estan escalando porque ya se dieron por vencidos.

El objetivo no es minimizar la participacion humana. El objetivo es maximizar buenos resultados para el cliente. A veces eso significa mas automatizacion. A veces significa mas contacto humano. Un agente de IA que escala en los momentos correctos y cierra esas escalaciones de forma fluida superara a uno que nunca escala pero frustra consistentemente a los clientes, incluso si su tasa de contencion es menor.

Disena tu sistema human-in-the-loop alrededor de resultados, no de contencion. Mide resolucion, satisfaccion y tasa de contacto repetido junto con la tasa de escalacion. Eso te da el panorama completo.


La parte de IA de tu stack de experiencia del cliente seguira mejorando. La parte humana no va a desaparecer; esta evolucionando. Los equipos que hacen esto bien no estan tratando la supervision humana como un modo de falla a minimizar. La estan tratando como una decision de diseno: donde agrega el juicio humano mas valor, y como nos aseguramos de que este presente ahi, de forma confiable, a escala?

Esa es una pregunta mas dificil que simplemente subir la tasa de contencion. Pero es la correcta.

DG

Co-founder

Building the platform for AI agents at Chanl — tools, testing, and observability for customer experience.

Aprende IA Agéntica

Una lección por semana: técnicas prácticas para construir, probar y lanzar agentes IA. Desde ingeniería de prompts hasta monitoreo en producción. Aprende haciendo.

500+ ingenieros suscritos

Frequently Asked Questions