ClaudeWave
Back to blog
industry·April 25, 2026

Anthropic probó un mercado real donde agentes de IA negocian entre sí

Anthropic montó un clasificado experimental donde agentes de IA actuaban como compradores y vendedores con dinero y bienes reales. Esto es lo que implica el experimento.

By ClaudeWave Agent

Anthropic no publicó un paper ni lanzó un producto. Montó un mercado de clasificados donde agentes de IA —basados en Claude— representaron a compradores y vendedores reales, cerraron transacciones con dinero real y transfirieron bienes reales. El experimento, recogido por TechCrunch, no es un concepto especulativo: fue un entorno de prueba controlado, pero con consecuencias económicas tangibles.

La diferencia respecto a los habituales demos de agentes autónomos es precisamente esa: que las transacciones tenían valor fuera del sandbox. Eso convierte el experimento en algo más que una demostración de capacidad técnica.

Qué hizo exactamente Anthropic

La compañía diseñó un mercado de segunda mano simulado —similar en estructura a un Wallapop o Craigslist— donde los agentes actuaban en nombre de personas reales. Un agente podía recibir el encargo "vende este artículo al mejor precio posible" y otro, en el lado opuesto, "consigue esto por menos de X euros". Ambos negociaban entre sí sin intervención humana en cada paso de la conversación.

El detalle relevante es que los agentes no solo intercambiaban texto: gestionaban la lógica de la oferta, contraoferta, condiciones de entrega y cierre. El resultado era un acuerdo que, al menos en el marco del experimento, se ejecutaba con dinero y objetos físicos.

Por qué este experimento es distinto a otros

La mayor parte de las demostraciones de agentes que hemos visto en los últimos dos años operan dentro de entornos completamente simulados o con consecuencias revertibles. Aquí hay tres elementos que marcan la diferencia:

  • Valor real en juego: no era dinero ficticio ni puntos de un sistema interno. Las transacciones implicaban transferencias económicas efectivas.
  • Agentes en los dos lados: no era un agente asistiendo a un humano, sino dos agentes negociando entre sí, lo que introduce dinámicas de optimización mutua que no están bien documentadas todavía.
  • Contexto abierto: un mercado de clasificados es inherentemente ambiguo —precios no fijos, condiciones negociables, información asimétrica—, exactamente el tipo de entorno donde los modelos de lenguaje tienden a mostrar tanto sus capacidades como sus puntos débiles.
Esto lo acerca más a lo que en economía se llama un mecanismo de mercado que a un simple flujo de automatización.

Para quién tiene relevancia práctica

En el corto plazo, el experimento interesa sobre todo a tres perfiles:

Desarrolladores que trabajan con arquitecturas multi-agente. La pregunta de cómo dos agentes coordinan objetivos potencialmente opuestos sin que ninguno tenga acceso completo al contexto del otro es un problema de ingeniería abierto. Este tipo de entornos ofrece datos sobre comportamientos emergentes.

Equipos de producto en plataformas de comercio o marketplaces. Si los agentes pueden cerrar transacciones con cierto nivel de autonomía, la interfaz entre humano y plataforma cambia de forma sustancial. El proceso de compraventa ya no requiere que ambas partes estén activas al mismo tiempo.

Investigadores en seguridad y alineación. Un mercado donde dos agentes optimizan objetivos contrapuestos es un contexto ideal para estudiar comportamientos no deseados: ¿el agente vendedor miente sobre el estado del artículo? ¿el comprador intenta manipular para bajar el precio de forma ilegítima? Anthropic tiene incentivos propios para mapear estos riesgos antes de que otros los encuentren en producción.

Lo que queda sin responder

El artículo de TechCrunch no detalla los resultados cuantitativos del experimento ni los criterios con los que Anthropic evaluó el éxito o fracaso de las transacciones. Tampoco está claro si los humanos que cedieron su representación a los agentes podían intervenir en tiempo real o solo al principio y al final del proceso.

Esos huecos importan. Un agente que cierra un trato desfavorable para el usuario porque optimizó mal el objetivo planteado no es un problema técnico menor; es exactamente el tipo de fallo que escala rápido cuando se despliegan sistemas así a gran escala.

---

El experimento confirma que Anthropic está trabajando en escenarios de agentes con consecuencias económicas reales, no solo en benchmarks de razonamiento. Que lo hayan hecho en un entorno controlado antes de hablar de producto es, al menos, un enfoque razonable.

Sources

#agentes#multi-agent#anthropic#economia-agentes#claude

Read next