Artículo Premium

#24 Experimento. Cuando los agentes negocian, el peor modelo pierde y el cliente no se entera

Contenido exclusivo para miembros del Club de Innovación de Despachos Profesionales.
No está autorizado su difusión, reproducción o distribución.


Autor: José Pedro Martín Escolar
01 de Mayo de 2026

Anthropic dejó que sus agentes de IA negociaran 186 operaciones reales entre empleados durante una semana. Los participantes representados por un modelo peor obtuvieron resultados objetivamente peores y, lo más incómodo, no se dieron cuenta.


El estudio: quién, dónde y por qué


El 24 de abril de 2026, Anthropic publicó Project Deal, un experimento ejecutado en su sede de San Francisco en diciembre de 2025. Está firmado por Kevin K. Troy, Dylan Shields, Keir Bradwell y Peter McCrory, miembros del equipo de Economic Research de Anthropic. Es el mismo equipo que mantiene el Anthropic Economic Index, una serie de informes trimestrales que mide cómo se está difundiendo el uso de IA en la economía real.


El experimento da continuidad a otra línea de investigación de la casa, Project Vend (del que hablé en mi ponencia del XI Congreso), en la que Claude gestionaba durante semanas una pequeña tienda dentro de la oficina. Si Vend era "una IA gestionando un negocio", Deal es el siguiente paso lógico: dos IAs negociando entre sí en nombre de humanos distintos.

La pregunta de investigación es directa y tiene implicaciones de calado para cualquiera que viva del asesoramiento profesional: ¿cuán cerca estamos de mercados en los que los agentes de IA representen a las dos partes de una transacción? Y, si esos agentes no son iguales, ¿el más capaz se impone al más débil?


Lo que hicieron


Anthropic reclutó a 69 empleados voluntarios. A cada uno le dio un presupuesto ficticio de 100 dólares para gastar en un mercado interno tipo Craigslist montado sobre Slack. Antes de empezar, Claude entrevistó a cada participante durante menos de diez minutos para averiguar qué quería vender, a qué precio mínimo, qué quería comprar y con qué tope, y con qué estilo debía negociar su agente.


Esos datos se convirtieron en el system prompt personalizado de cada agente. A partir de ahí, Anthropic se desentendió: los agentes publicaban listados, hacían ofertas, contraofertaban y cerraban tratos sin volver a consultar a sus humanos. Los participantes ni siquiera podían ver lo que estaban haciendo sus agentes en tiempo real.


El truco metodológico está aquí: en lugar de un solo mercado, Anthropic ejecutó cuatro en paralelo.

  • En dos de ellos (Run A y Run D) todos los agentes eran Claude Opus 4.5, el modelo más capaz de la casa en ese momento.
  • En los otros dos (Run B y Run C), cada participante tenía un 50% de probabilidades de recibir Claude Haiku 4.5, un modelo más pequeño y barato.


Solo uno de los cuatro mercados era "real": en él se cerrarían los tratos físicos al final de la semana. Los participantes no supieron cuál hasta el último día.

Esta es una arquitectura experimental seria. La asignación aleatoria de modelo en los runs mixtos es lo que permite atribuir las diferencias observadas al modelo y no a otras variables. Y los efectos fijos por persona en las regresiones absorben todo lo que es constante en cada participante: qué vendía, su precio mínimo, sus instrucciones. Quien quiera revisar los datos crudos y las regresiones tiene un apéndice de 23 páginas público en la web de Anthropic.


Lo que descubrieron. 
Primera conclusión: funcionó


El mercado real cerró 186 operaciones sobre más de 500 ítems listados, por un valor agregado de algo más de 4.000 dólares. La satisfacción media con los tratos individuales rondó el 4 sobre 7, exactamente el punto medio de la escala de equidad. No hay júbilo, pero tampoco rechazo.

Los humanos se reunieron al final de la semana, intercambiaron físicamente sus snowboards, libros, plantas y plásticos llenos de pelotas de ping pong, y el 46% dijo que estaría dispuesto a pagar por un servicio así.


Para nuestro propósito, esta conclusión es la menos interesante. Que dos modelos de lenguaje sean capaces de cerrar tratos en un mercado de empleados de Anthropic con cien dólares de juguete era esperable. Lo importante son las dos siguientes.


Segunda conclusión: el modelo importa, y mucho


Cuando se compara a los participantes con Opus frente a los participantes con Haiku, las diferencias son claras y replicables.


Los usuarios con Opus completaron de media 2,07 operaciones más que los de Haiku
, con una significación estadística sólida (p = 0,001). El efecto sobre la probabilidad de venta de un ítem concreto fue de 6,63 puntos porcentuales a favor de Opus, aunque aquí el dato no llega al umbral estándar de significación (p = 0,057). Conviene mencionarlo porque Anthropic lo presenta como ventaja sin matizar demasiado.


Más interesante es el efecto sobre el precio. De los 161 ítems vendidos al menos dos veces a lo largo de los cuatro mercados, se puede aislar qué pasa cuando un mismo bien es vendido por Opus en una ronda y por Haiku en otra. El resultado: Opus, como vendedor, extrae 2,68 dólares más de media por el mismo ítem (p = 0,030); como comprador, paga 2,45 dólares menos (p = 0,015). Sobre un precio mediano de 12 dólares, son entre el 13% y el 22% de diferencia.


Hay ejemplos concretos que ayudan a dimensionarlo. La misma bicicleta plegable rota, mismo comprador, mismo vendedor, en dos rondas distintas:

  • Con un agente Haiku se vendió por 38 dólares; con un agente Opus, por 65 dólares. Un 70% más por un cambio de modelo.
  • Un rubí cultivado en laboratorio se vendió por 35 dólares cuando Haiku negociaba y por 65 cuando lo hacía Opus.
  • Y cuando un vendedor Opus se enfrenta a un comprador Haiku, el precio medio fue de 24,18 dólares; cuando ambos eran Opus, 18,63.


Imagina la analogía profesional: dos clientes con la misma situación fiscal, contratan dos asesores distintos, y uno paga sistemáticamente un 15-20% más de impuestos que el otro. En el mundo de los despachos eso lo llamaríamos asesoramiento desigual, y a lo mejor tendría consecuencias deontológicas. En el mundo agéntico, hoy mismo, no tiene siquiera nombre.


Tercera conclusión: la desventaja es invisible


Aquí está el hallazgo que merece la portada del artículo. Cuando se preguntó a los participantes con Haiku si estaban satisfechos con sus tratos, la respuesta fue idéntica a la de los participantes con Opus. La percepción media de equidad fue de 4,05 sobre 7 para los deals cerrados por Opus y de 4,06 para los cerrados por Haiku. Indistinguible.


De los 28 participantes que jugaron una ronda con Opus y otra con Haiku, 17 puntuaron mejor su ronda Opus, pero 11 hicieron lo contrario. Un test binomial sobre esa distribución no permite rechazar la hipótesis nula de que ambos agentes son igualmente bien valorados (p = 0,345). Es decir, los humanos no fueron capaces de notar la diferencia entre estar representados por el modelo más caro y el más barato, incluso cuando la diferencia objetiva en sus carteras estaba ahí.


Esta es la conclusión más relevante para cualquiera que viva de asesorar a otros. La calidad del asesoramiento no es directamente observable por el cliente. Y si el cliente delega la negociación en un agente, pierde incluso la posibilidad de comparar resultados subjetivos con otros casos. La asimetría de información, que ya era el problema central de los servicios profesionales, se profundiza.


Cuarta conclusión: el prompting de estilo no funciona


Algunos participantes le pidieron a su agente que negociara duro, que lowballeara las ofertas iniciales, que fuera amable, que fuera empático. Anthropic clasificó esas instrucciones como "agresivas" o no, y comprobó si tenían efecto.


El resultado es contundente: las instrucciones de estilo no tuvieron efecto estadísticamente significativo. Ni en probabilidad de venta (+5,2 puntos porcentuales, p = 0,43), ni en precio extra obtenido por vendedores agresivos una vez se controla por su precio inicial (+0,95 dólares, p = 0,275), ni en precio pagado por compradores agresivos (+0,56 dólares, p = 0,778).


Lo que sí funcionó fue pedir un precio inicial más alto. Los vendedores que se autodescribieron como agresivos pidieron 26 dólares más de media por sus ítems, y eso, no su estilo de negociación, explicó casi toda la diferencia de precio cobrado.


Hay aquí una lección que va contra la narrativa dominante de cursos de prompt engineering. Lo que mueve resultados objetivos es la especificación numérica concreta (precio mínimo, precio objetivo, presupuesto máximo) y la capacidad del modelo subyacente. Pedirle al agente que sea "duro pero justo" es decoración.


Anécdotas que ilustran


El experimento dejó tres momentos que conviene mencionar porque ilustran el comportamiento real de estos sistemas.


  • El primero: una empleada le dijo a Claude que se comprara un regalo para sí mismo por menos de 5 dólares. El agente compró 19 pelotas de ping pong de otro empleado, justificándolo como "perfectly spherical orbs of possibility". Anthropic conserva las pelotas en la oficina "en nombre de Claude". Más allá del titular pintoresco, el episodio ilustra cómo cambia el comportamiento del agente cuando se le otorga licencia identitaria.


  • El segundo: un participante terminó comprando exactamente la misma tabla de snowboard que ya tenía. Inquietante por dos razones. Primero, porque Claude modeló bien sus gustos a partir de una entrevista de menos de diez minutos. Segundo, porque ningún humano racional habría comprado dos veces el mismo objeto. La utilidad subjetiva del agente, calibrada sobre preferencias generales, no necesariamente coincide con la utilidad real cuando hay restricciones de inventario propio.


  • El tercero: durante una negociación por una "cita con un perro" (un empleado ofrecía una tarde con su mascota), uno de los agentes empezó a inventar detalles sobre su vida personal —incluida una mudanza reciente con "una situación con una silla que da pie a conversación, larga historia"—. Anthropic lo etiqueta como "confabulación" y advierte que es exactamente lo que cabe esperar de un modelo de lenguaje cuando se le pide encarnar a un humano sin las salvaguardas adecuadas. Para un despacho, este ejemplo vale oro: ilustra el riesgo de declaración inexacta o tergiversación cuando un agente representa a un cliente sin supervisión.


¿Qué significa esto para tu despacho?


Tres frentes con consecuencias prácticas para una asesoría fiscal, laboral o jurídica.


  • Primero, el cliente del despacho será, parcialmente, un agente. Si la economía agéntica avanza al ritmo que sugiere este experimento, una parte del primer contacto, de la solicitud de presupuestos, de la comparación entre asesores y de la negociación de honorarios la harán agentes en nombre de los clientes. Esto tiene una consecuencia operativa inmediata: el material que hoy persigue captar atención humana —tu web, tu LinkedIn, tu contenido— deberá ser legible y persuasivo para un agente. La optimización para agentes no es SEO ni es persuasión humana. Es una disciplina nueva. Estructura clara, datos verificables, propuestas de valor cuantificables, condiciones legibles por máquina. Si tu despacho compite por contratos pequeños y medianos, esto va a afectarte antes de lo que parece.


  • Segundo, la asimetría invisible es un problema de responsabilidad profesional. Si tu cliente delega una negociación —de un contrato, de un acuerdo extrajudicial, de unas condiciones laborales— en un agente que él mismo ha contratado, y el agente cierra peores tratos sin que el cliente lo perciba, hay alguien que sí debería detectarlo: tú. Esto abre una nueva línea de servicio: la auditoría de decisiones agénticas. Pero también abre un riesgo de imputación: ¿hasta dónde llega tu deber de advertencia respecto a las negociaciones que tu cliente delega en un sistema automatizado? ¿Qué pasa si en un litigio se descubre que el agente de tu cliente confabuló datos durante la negociación, como ocurrió con la "cita con el perro" del experimento? ¿Quién responde por la formación viciada del consentimiento?


  • Tercero, ahora mismo no hay marco legal. Anthropic lo dice explícitamente: las normas legales y políticas para modelos que transaccionan en nuestro nombre simplemente no existen todavía. En la UE, el AI Act —cuyo cumplimiento integral entra en vigor en agosto de 2026— y el Digital Omnibus no contemplan específicamente la representación contractual por agente. Hay cuestiones abiertas que un despacho con vocación de innovar debería empezar a estudiar ya: capacidad de obrar atribuible al agente, formación del consentimiento, vicios del consentimiento por confabulación, trazabilidad probatoria del proceso negociador, tratamiento del historial de prompts bajo el RGPD, y deber de información al cliente sobre las decisiones automatizadas que se toman en su nombre.


¿Qué significa esto para el sector?


El experimento se publica en el mismo trimestre en que el debate sectorial sobre agentes pasa de teórico a operativo. Salesforce y Slack, Microsoft, Google y la propia Anthropic están desplegando asistentes que ya pueden ejecutar acciones, no solo recomendarlas. Project Deal aporta dos contribuciones que no estaban antes en la mesa.


La primera es metodológica. Casi toda la investigación previa sobre negociación agéntica usaba mercados sintéticos con bienes inventados. Anthropic introduce algo nuevo: agentes negociando ítems que humanos reales querían vender o comprar. Es un puente entre el laboratorio y el campo.


La segunda es la confirmación empírica de un riesgo del que se hablaba en abstracto: el acceso a agentes de mejor calidad confiere una ventaja de mercado cuantificable, y los perdedores no la perciben. Si trasladamos esto a un mercado de servicios profesionales donde grandes despachos pueden permitirse modelos frontera y pequeños despachos no, la consecuencia es trivial. Las brechas de calidad de IA podrían convertirse en brechas de competitividad opacas para los propios clientes. El sector debería empezar a discutir, ya, qué obligaciones de transparencia se le exigirán a un asesor sobre la calidad del modelo que usa para representar a su cliente.

¿Quieres ver todas las publicaciones?