Uno de los problemas más concretos y costosos en la adopción de agentes de IA es el derroche de tokens. Cada vez que un agente comienza una conversación, necesita cargar en su contexto los esquemas de todas las herramientas disponibles, una práctica que puede consumir decenas de miles de tokens por sesión incluso antes de que el modelo haga algo útil.
mcp2cli es una herramienta de código abierto publicada esta semana en Hacker News que ataca directamente este problema. El concepto es elegante: en vez de inyectar los esquemas JSON completos de todos los endpoints o herramientas MCP en cada turno de la conversación, le das al agente un CLI que puede explorar bajo demanda. Con `--list` obtiene un resumen compacto (~16 tokens por herramienta), y con `--help` accede a la documentación de cada herramienta específica solo cuando la necesita. El ahorro es dramático: hasta un 99% menos de tokens en conversaciones largas con muchas herramientas.
Los números son concretos y verificados con pruebas automatizadas. Una plataforma con 120 herramientas en una sesión de 25 turnos cuesta 362,350 tokens con el enfoque nativo de MCP; con mcp2cli, apenas 5,181. Para una API empresarial de 200 endpoints en 25 turnos, la diferencia es de 358,425 tokens contra 3,925: un ahorro del 99%.
Lo más valioso del proyecto no es solo el ahorro de costos, sino que funciona con cualquier proveedor de LLM —Claude, GPT, Gemini, modelos locales— a diferencia del Tool Search de Anthropic que es exclusivo de su API. Además, soporta tanto servidores MCP como especificaciones OpenAPI (JSON o YAML), y el CLI se genera en tiempo de ejecución sin necesidad de codegen: apunta a una URL de spec y la herramienta existe de inmediato.
Para equipos latinoamericanos que construyen pipelines de agentes sobre APIs REST existentes, mcp2cli puede ser la diferencia entre un prototipo inviable por costos y uno que escale. El proyecto está publicado en GitHub bajo licencia MIT.