Artículo Premium
#22 La IA agéntica viene a quedarse con flujos enteros de trabajo
Un estudio analiza 236 ocupaciones en cinco regiones de EE.UU. y concluye que el 93% estarán en riesgo moderado para 2030. La idea es potente. La ejecución, discutible.
El estudio: quién, dónde y por qué
El paper se titula "Agentic AI and Occupational Displacement: A Multi-Regional Task Exposure Analysis of Emerging Labor Market Disruption", firmado por Ravish Guptay Saket Kumar. Gupta se presenta como AI Lead en BigCommerce y miembro sénior del IEEE. El trabajo se publicó el 31 de marzo de 2026.
La pregunta que se hacen es genuinamente importante: ¿qué pasa cuando la IA no se limita a automatizar tareas sueltas, sino que ejecuta flujos de trabajo completos de principio a fin?
Lo que hicieron (metodología accesible)
Para entender el enfoque, hay que saber cómo se ha medido tradicionalmente el riesgo de automatización. Desde hace dos décadas, los economistas laborales descomponen cada profesión en tareas individuales y evalúan cuáles puede hacer una máquina. Si un asesor fiscal dedica el 40% de su tiempo a tareas automatizables, se dice que tiene un 40% de exposición. Pero el puesto sobrevive porque alguien tiene que coordinar todo lo demás.
Los autores argumentan que la IA agéntica rompe esa lógica. Un agente de IA no coge una tarea, la resuelve y te devuelve el control. Recibe un objetivo completo ("revisa este contrato de arrendamiento, identifica cláusulas no estándar y redacta las correcciones"), selecciona herramientas, ejecuta un plan de varios pasos, verifica su propio trabajo y entrega un resultado terminado. Sin intervención humana intermedia.
Para capturar esta diferencia, proponen una nueva métrica: el Agentic Task Exposure (ATE). Es un índice compuesto que combina cuatro factores para cada ocupación:
- el peso de cada tarea en el puesto (sacado de la base de datos O*NET del Departamento de Trabajo de EE.UU.),
- la capacidad demostrada de la IA para realizar esa tarea,
- un factor de cobertura del flujo de trabajo (¿puede el agente completar la cadena entera sin ayuda humana?),
- y una curva de adopción tecnológica que varía por región.
Imagínatelo así: no basta con que la IA sepa hacer la declaración de IVA. El ATE pregunta si puede hacer la declaración, verificarla contra los datos contables, detectar inconsistencias, corregirlas y presentarla. Todo seguido. Sin que un humano revise entre pasos.
Analizan 236 ocupaciones en seis grandes grupos (financiero, legal, sanitario, soporte sanitario, ventas y administrativo) en cinco áreas metropolitanas de EE.UU.: San Francisco, Seattle, Austin, Nueva York y Boston. El horizonte temporal es 2025-2030.
Lo que descubrieron (hallazgos clave)
El titular principal: en San Francisco (la región con adopción más rápida), el 70,8% de las 236 ocupaciones analizadas supera el umbral de riesgo moderado para 2027. Para 2030, ese porcentaje sube al 93,2%. Las ocupaciones más expuestas son analistas de crédito, jueces y especialistas en sostenibilidad, con puntuaciones ATE de 0,43-0,47 sobre 1.
- Pero aquí viene el matiz que los propios autores señalan: ninguna ocupación llega al umbral de riesgo alto (0,65 o más). Ni siquiera para 2030. El framework predice desplazamiento amplio pero moderado, no catástrofe. Es una recomposición gradual de la fuerza laboral, no un apocalipsis de empleo.
- El segundo hallazgo interesante es regional. Existe un desfase de 2-3 años entre las ciudades punteras en tecnología (San Francisco) y las que van detrás (Seattle, Austin, Boston). Nueva York va aún más rezagada. Para 2030, las ciudades de segundo nivel alcanzan los niveles de exposición que San Francisco tenía en 2027.
- El tercer hallazgo es que el teletrabajo comprime esa brecha. Si trabajas desde Austin pero tu empresa tiene sede en San Francisco, tu velocidad de exposición es la del empleador, no la de tu ciudad. Esto reduce el riesgo estimado para San Francisco (en un 16,8% para ocupaciones financieras) y lo aumenta para Nueva York (en un 9,2%). Las regiones convergen.
Finalmente, los autores identifican diecisiete nuevos tipos de roles emergentes, agrupados en cuatro categorías:
- operaciones de IA y supervisión,
- diseño de colaboración humano-IA,
- dirección de IA específica por dominio,
- y gobernanza y ética de IA.
Su argumento clave es que estos roles no requieren saber programar. Requieren experiencia de dominio para supervisar y corregir lo que la IA produce. El asesor fiscal desplazado no necesita aprender Python. Necesita convertirse en director de agentes de IA que hacen trabajo fiscal.
Lo que NO te cuentan (limitaciones y mirada crítica)
Este paper tiene problemas serios que los propios autores reconocen parcialmente, y otros que no abordan.
El problema de la calibración. Las puntuaciones de capacidad de IA (CAP) y de cobertura de flujo de trabajo (COV) no son datos empíricos. Son estimaciones construidas por los autores a partir de benchmarks publicados y "informes de profesionales". No hay un dataset independiente que las valide. Cuando dicen que la IA tiene un 0,95 en comprensión escrita, están haciendo una extrapolación a partir de que GPT-4 saca buena nota en MMLU. Eso no es lo mismo que demostrar que un agente de IA puede comprender un contrato de arrendamiento con cláusulas atípicas en un contexto real.
El rúbrica de palabras clave es rudimentaria. El factor de cobertura de flujo de trabajo (COV) se calcula buscando palabras clave en las descripciones de tareas de O*NET. Si la tarea contiene "negociar", se penaliza. Si no contiene ninguna palabra clave de las cuatro categorías de penalización, se asume cobertura total. Los propios autores admiten que este método tiene una tasa de falsos negativos del 50%: la mitad de las tareas que deberían penalizarse no lo son porque las palabras clave no aparecen en el texto. Sus puntuaciones ATE son, por tanto, un límite superior de riesgo, no una estimación central.
La validación empírica es débil. Cuando comparan sus puntuaciones ATE con datos reales de empleo (2023-2024), la correlación es prácticamente cero: ρ = −0,04. Los autores lo justifican diciendo que estamos en la fase pre-inflexión de la curva S. Puede ser cierto. Pero un modelo que no predice el pasado reciente pide un acto de fe considerable para que confiemos en sus predicciones a 2030.
Los parámetros de la curva S son discutibles. La velocidad de adopción para San Francisco (k = 0,85) es seis veces mayor que lo que sugieren los datos empíricos de ofertas de empleo en Indeed (k ≈ 0,14). Los autores lo reconocen y hacen un test de sensibilidad que muestra que sus conclusiones cualitativas se mantienen, pero las cuantitativas varían enormemente. Bajo el escenario conservador, solo el 2,5% de las ocupaciones cruza el umbral de riesgo moderado en San Francisco para 2027. Bajo el escenario agresivo, el 87,3%. La diferencia es de 35 veces. Cuando tu rango de incertidumbre es de 35x, el número central pierde significado práctico.
Ausencia total de contexto regulatorio no estadounidense. El paper no menciona el EU AI Act, la legislación laboral europea, los convenios colectivos, ni ningún marco regulatorio fuera de EE.UU. Para un lector español, esto es una limitación fundamental. El ritmo de desplazamiento laboral en España no solo depende de la capacidad técnica de la IA. Depende de los costes de despido, de la negociación colectiva, de las obligaciones de formación, y de un marco regulatorio europeo que entrará en vigor en agosto de 2026 con requisitos de transparencia y supervisión humana que no existen en EE.UU.
Los autores no son del campo. Este no es un paper de labor economics publicado en una revista revisada por pares. Es un preprint de un ingeniero de software y un estudiante de máster. Eso no lo hace falso, pero sí significa que no ha pasado por el filtro de economistas laborales que podrían detectar problemas metodológicos que un ingeniero no ve.
¿Qué significa esto para tu despacho?
A pesar de las limitaciones, la idea central del paper es valiosa para cualquier director de despacho profesional. No porque las cifras concretas sean fiables, sino porque el concepto cambia la forma de pensar sobre la IA.
Hasta ahora, la conversación en el sector ha sido sobre tareas: "la IA puede hacer declaraciones de IVA", "la IA puede clasificar facturas", "la IA puede redactar contratos estándar". Y la conclusión tranquilizadora era que el asesor sigue siendo necesario para coordinar todo eso. Este paper dice: cuidado, los agentes de IA ya no necesitan que coordines nada. Reciben el objetivo completo y lo ejecutan de principio a fin.
Para un despacho de asesoría fiscal, laboral o jurídica, esto tiene tres implicaciones concretas:
- Primera: el valor no está en ejecutar, está en supervisar y corregir. Si un agente de IA puede cerrar los libros contables de un cliente al 80% de calidad, y un humano experto puede revisar el trabajo de 50 agentes, la pregunta no es si tu equipo seguirá haciendo cierres contables. La pregunta es cuántos humanos necesitas para supervisar el trabajo automatizado de toda tu cartera. La respuesta es muchos menos que ahora.
- Segunda: el conocimiento de dominio es tu activo más valioso. Los roles emergentes que identifica el paper no piden programadores. Piden asesores fiscales que sepan detectar cuándo un agente de IA ha calculado mal una base imponible, o laboralistas que identifiquen cuándo un sistema automatizado ha aplicado el convenio equivocado. Tu experiencia profesional no es obsoleta. Es exactamente lo que se necesita para supervisar a las máquinas. Pero necesitas saber trabajar con ellas.
- Tercera: el desfase temporal es tu ventana de oportunidad. El paper muestra que hay 2-3 años de diferencia entre las regiones que adoptan primero y las que van detrás. En España, con un marco regulatorio más restrictivo y costes de despido más altos, esa ventana probablemente es mayor. Pero no es infinita. Los despachos que empiecen ahora a construir capacidad interna con agentes de IA tendrán ventaja competitiva. Los que esperen a que sea "obligatorio" llegarán tarde.
¿Qué significa esto para el sector?
El paper confirma algo que llevamos observando desde hace meses: la IA agéntica no es una iteración más de la automatización. Es un cambio cualitativo. Cuando un sistema puede recibir "prepara la declaración del Impuesto de Sociedades de este cliente" y devolverte un borrador completo, el modelo de negocio del despacho profesional tiene que cambiar.
El sector de despachos profesionales en España y Latinoamérica tiene características que el paper no captura pero que son relevantes.
- Primero, la fragmentación: miles de despachos pequeños (1-10 personas) que no tienen ni la escala ni la capacidad financiera para desplegar agentes de IA de forma autónoma. Esto crea una oportunidad para plataformas que ofrezcan agentes preconfigurados para el sector.
- Segundo, la regulación europea: el EU AI Act impondrá obligaciones de transparencia y supervisión humana que en la práctica ralentizarán la adopción pero también crearán demanda de profesionales que entiendan tanto la IA como el marco regulatorio.
El dato más interesante para el sector no es el 93% de ocupaciones en riesgo moderado. Es que los nuevos roles emergentes se basan en experiencia de dominio, no en habilidades técnicas. Si esto se confirma, la reconversión profesional en el sector no pasa por formar programadores. Pasa por formar directores de IA que entiendan fiscalidad, laboralidad y derecho. Eso es exactamente lo que sabe hacer un despacho profesional bien gestionado.
En resumen
- La IA agéntica ejecuta flujos de trabajo completos, no tareas sueltas. Esto cambia radicalmente el análisis de riesgo de automatización para profesiones de cuello blanco.
- El paper propone una métrica nueva (ATE) que intenta medir esta exposición, pero descansa sobre parámetros calibrados manualmente con enormes rangos de incertidumbre. Las cifras concretas son poco fiables; el concepto es valioso.
- Ninguna ocupación alcanza riesgo alto, ni siquiera en el escenario más agresivo. El escenario es recomposición gradual, no destrucción masiva de empleo.
- Los nuevos roles emergentes demandan experiencia de dominio profesional, no programación. Para un asesor fiscal o laboral, eso es una buena noticia si se posiciona a tiempo.
- El paper ignora por completo el contexto regulatorio europeo. Para España, el EU AI Act y la legislación laboral serán factores determinantes que este análisis no captura.
Referencia del estudio
Gupta, R. y Kumar, S. (2026). Agentic AI and Occupational Displacement: A Multi-Regional Task Exposure Analysis of Emerging Labor Market Disruption.
