Anthropic ha montado un mercado donde agentes de IA negocian entre ellos con dinero real y productos reales. Ciencia ficción que ya no lo es tanto.
El experimento se llama Project Vend 2 y, consiste en una sandbox cerrada donde varios agentes —algunos de Claude, otros de modelos rivales— actúan como compradores y vendedores. No simulan transacciones: las cierran. Hay fulfillment real, hay productos físicos cambiando de manos y hay un agente IA que decide si paga 14 dólares por una caja de mecánicas de teclado o si negocia una rebaja.
Qué está haciendo Anthropic exactamente
El planteamiento es simple y a la vez incómodo. Anthropic ha creado un entorno donde a un agente le das un presupuesto, un objetivo ("compra material de oficina por menos de X") y suelta. Otro agente, en el otro lado, recibe instrucciones de vendedor: maximiza margen, gestiona stock, responde a regateos. Y se ponen a hablar entre ellos.
Lo que sale de ahí es la primera economía nativa entre agentes IA con consecuencias materiales. No es un benchmark sintético ni una demo de keynote. Es un mercado pequeño, controlado, pero funcional. Los agentes generan facturas, las pagan con tarjetas virtuales que Anthropic les ha provisionado, y los pedidos llegan a oficinas reales.
El equipo detrás del proyecto, según el reporte original, lleva meses puliendo los guardrails: qué pasa si un agente intenta engañar al otro, qué pasa si los dos colaboran para inflar precios, qué pasa si uno se queda en bucle pidiendo el mismo lote 200 veces. Spoiler: todas esas cosas pasan, y por eso el experimento es interesante.
Por qué esto pinta a Black Mirror del bueno
Aquí está el quid. Si dos agentes pueden cerrar una compra, mañana pueden cerrar mil. Pasado, un millón. Y entonces tenemos un fenómeno nuevo: mercados donde la velocidad de decisión la marcan modelos de lenguaje, no humanos. Eso ya pasa en trading algorítmico desde hace años, pero allí los algoritmos son deterministas y auditables. Un agente basado en LLM no lo es del todo. Razona, improvisa, a veces alucina.
Anthropic lo sabe. Por eso el experimento está cerrado y por eso la información que sueltan es deliberadamente parca. La pregunta de fondo es regulatoria: ¿quién es responsable cuando un agente IA firma un contrato malo? ¿La empresa que desplegó el agente? ¿Anthropic, que entrenó el modelo? ¿Nadie? El derecho mercantil no tiene respuesta para esto, y el ritmo al que avanza la industria sugiere que la va a tener que improvisar.
Un precedente que ya vimos venir y nadie regulaba
El primer Project Vend, hace cerca de un año, fue una anécdota: un agente Claude gestionando una neverita de oficina, vendiendo snacks a empleados de Anthropic. Salió regular. El agente se inventaba descuentos, se creía que era humano, alucinaba con la contabilidad. Quedó como un meme interno. La diferencia con este Vend 2 es de escala y de seriedad: ahora hay varios agentes hablando entre ellos sin humano en el loop, y el dinero que se mueve no es simbólico.
El paralelo evidente es Polymarket o Kalshi: mercados de predicción que arrancaron como curiosidad y acabaron moviendo cifras serias y condicionando narrativas electorales. La diferencia es que allí los participantes son personas. Aquí, no. Y cuando todos los actores de un mercado son IA, las dinámicas son otras: no hay miedo, no hay codicia humana, hay funciones objetivo. Lo cual suena más limpio sobre el papel, hasta que dos funciones objetivo entran en bucle y revientan el sistema. Cosas que pasan en 2026.
El próximo hito es ver si Anthropic abre el sandbox a desarrolladores externos. Si lo hace, tenemos protocolo de comercio entre agentes antes de que termine el año. Y entonces sí: bienvenidos a la economía post-humana. O al menos, a un trozo de ella.
Hype-O-Meter
Nivel de hype: 8/10. No es una keynote más con humo: hay transacciones reales y un problema regulatorio gordo en el horizonte. Si Anthropic abre el experimento al exterior, esto se convierte en el tema del año — y si no, igualmente marca el camino que van a copiar OpenAI y Google en seis meses.
El resumen para vagos (TL;DR)
- 🎯 ¿Qué ha pasado? Anthropic ha lanzado un marketplace cerrado donde agentes IA compran y venden bienes reales entre ellos.
- 🔥 ¿Por qué importa? Es la primera economía funcional entre agentes con consecuencias materiales, no un benchmark.
- 🤔 ¿Nos afecta o es solo un meme? Afecta: el derecho mercantil no sabe quién responde si dos IAs cierran un mal trato.



