MCP Ganó. Esto es lo que significa para tu arquitectura
En noviembre de 2024, Anthropic lanzó silenciosamente un estándar abierto llamado Model Context Protocol (MCP). No fue espectacular. El blog de lanzamiento era técnico y discreto. La comunidad dev colectivamente se encogió de hombros y siguió adelante.
Para marzo de 2025, OpenAI lo había adoptado. Google DeepMind lo siguió. Microsoft lo lanzó en Azure Databricks. Para el verano de 2025, era el protocolo dominante para conectividad de herramientas-AI — una adopción más rápida que la que OAuth, OpenAPI o HTTP/1.1 lograron en etapas comparables.
MCP ganó. La pregunta ya no es “¿debería usarlo?” Es “¿cómo reestructuro mi arquitectura alrededor de él?”
Vamos al punto.
El problema que resolvió (y por qué era un caos antes)
Antes de MCP, si querías conectar un agente de IA a herramientas externas y fuentes de datos, tenías un problema matemático simple pero brutal:
M APIs × N agentes = caos
Cada combinación requería un conector personalizado. Cada proveedor de modelos tenía su propio spec para llamada de funciones. OpenAI tenía un formato. Anthropic tenía otro. Cuando OpenAI lanzó “function calling” en 2023, fue útil — pero seguía siendo propietario. Si construiste para GPT-4, nada funcionaba con Claude. Si construiste para Claude, no funcionaba con Gemini.
Terminabas con una maraña de integraciones a medida. ¿El agente cambia de modelo? Reconstruye los conectores. ¿Se agrega una nueva herramienta? Actualiza cada agente que podría usarla. Era el mundo pre-USB para la IA.
MCP es USB. Un enchufe estándar.
El cambio arquitectónico se ve así:
Antes:
Agente A → Conector personalizado → Herramienta 1
Agente A → Conector personalizado → Herramienta 2
Agente B → Conector personalizado → Herramienta 1 ← esfuerzo duplicado
Agente B → Conector personalizado → Herramienta 2 ← más esfuerzo duplicado
Después:
Agente A ─┐
├→ MCP Client → MCP Server (Herramienta 1)
Agente B ─┘ → MCP Server (Herramienta 2)
Escribe el servidor MCP una vez. Cualquier agente compatible con MCP puede usarlo. Para siempre.
Cómo funciona MCP realmente
MCP está construido sobre JSON-RPC 2.0 y toma mucha inspiración del Language Server Protocol (LSP) — el mismo estándar que impulsa funciones de IDE como autocompletado y go-to-definition en cada editor y lenguaje.
La arquitectura tiene tres capas:
1. MCP Host
La aplicación de IA en sí misma. Piensa en Claude, Cursor, tu agente personalizado. El host coordina todo y administra uno o más MCP clients.
2. MCP Client
Vive dentro del host. Mantiene una conexión persistente a un MCP server y extrae contexto de él bajo demanda.
3. MCP Server
Un programa independiente que escribes una vez. Expone tus datos, APIs y funcionalidad a través de tres primitivos:
| Primitivo | Qué es | Ejemplo |
|---|---|---|
| Tools | Funciones que el agente puede llamar | search_database, send_email, run_query |
| Resources | Datos estructurados que el agente puede leer | archivos, registros de BD, respuestas de API |
| Prompts | Plantillas de prompts reutilizables | conjuntos de instrucciones específicos del dominio |
La elegancia está en la separación: un servidor MCP, muchos posibles clientes. Un agente, muchos posibles servidores.
┌──────────────────────────────────────────────┐
│ MCP Host (tu agente) │
│ ┌─────────────┐ ┌─────────────────────┐ │
│ │ MCP Client │───▶│ MCP Server (BD) │ │
│ └─────────────┘ └─────────────────────┘ │
│ ┌─────────────┐ ┌─────────────────────┐ │
│ │ MCP Client │───▶│ MCP Server (Email) │ │
│ └─────────────┘ └─────────────────────┘ │
│ ┌─────────────┐ ┌─────────────────────┐ │
│ │ MCP Client │───▶│ MCP Server (GitHub)│ │
│ └─────────────┘ └─────────────────────┘ │
└──────────────────────────────────────────────┘
Por qué ganó tan rápido
Estándares comparables tardaron años en alcanzar este nivel de adopción:
- OAuth 2.0 → ~4 años para dominio multi-proveedor
- OpenAPI/Swagger → ~5 años
- HTTP/1.1 → la mayor parte de los 90s
MCP lo logró en menos de un año. ¿Por qué?
1. Timing. Todas las empresas importantes estaban luchando por lanzar agentes de IA al mismo tiempo. Nadie quería construir la fontanería dos veces. MCP llegó exactamente cuando el dolor era más intenso.
2. Era “suficientemente bueno”. Lanzamiento imperfecto — lo que paradójicamente ayudó. La controversia impulsó el engagement, la comunidad empujó mejoras, y para cuando estaba pulido, todos ya estaban en él.
3. Anthropic lo donó de inmediato. En diciembre de 2025, MCP fue entregado a la Agentic AI Foundation (AAIF) bajo la Linux Foundation, co-fundada por Anthropic, Block y OpenAI. Ningún proveedor lo posee. Eso eliminó las objeciones de “no fue inventado aquí” de los competidores.
4. La analogía con LSP resonó. Todo desarrollador senior entiende LSP. “Es LSP pero para herramientas de IA” es un pitch de una oración que no necesita presentación.
Lo que realmente necesitas cambiar
Si estás construyendo algo con agentes de IA en 2026 y no estás pensando en MCP, aquí está por dónde empezar:
Si tienes herramientas/datos que tus agentes necesitan → Construye servidores MCP
Deja de cablear llamadas directas a APIs en tu código de agente. Envuelve tus herramientas en servidores MCP. Tu conector de base de datos, tus APIs internas, tu acceso al sistema de archivos — si más de un agente alguna vez lo necesitará, debería ser un servidor MCP.
Un servidor MCP mínimo en Node.js se ve así:
import { Server } from "@modelcontextprotocol/sdk/server/index.js";
import { StdioServerTransport } from "@modelcontextprotocol/sdk/server/stdio.js";
const server = new Server(
{ name: "my-db-server", version: "1.0.0" },
{ capabilities: { tools: {} } }
);
server.setRequestHandler(ListToolsRequestSchema, async () => ({
tools: [{
name: "query_users",
description: "Consulta la tabla de usuarios",
inputSchema: {
type: "object",
properties: { filter: { type: "string" } },
required: ["filter"]
}
}]
}));
server.setRequestHandler(CallToolRequestSchema, async (request) => {
const { filter } = request.params.arguments;
const results = await db.query(`SELECT * FROM users WHERE ${filter}`);
return { content: [{ type: "text", text: JSON.stringify(results) }] };
});
const transport = new StdioServerTransport();
await server.connect(transport);
Si estás construyendo agentes → Usa MCP clients, no llamadas directas a API
No implementes function calling específico de un proveedor. Usa un MCP client que abstraiga eso. Tu agente se mantiene portable entre modelos.
Si estás en un equipo → Publica tus servidores MCP como infraestructura compartida
Tu servidor MCP de autenticación, tu servidor MCP de logging, tu servidor MCP de base de conocimiento interna — estos se convierten en infraestructura compartida, no en trabajo DIY por equipo. Piénsalos como paquetes npm internos: escribe una vez, publica, consume en todas partes.
La implicación arquitectónica de la que nadie habla
Aquí está lo que creo que se subestima del impacto a largo plazo de MCP: desacopla la capacidad de la elección del modelo.
Ahora mismo, la mayoría de los equipos eligen su modelo de IA primero, luego construyen herramientas alrededor de él. Eliges Claude, construyes para la API de Claude. Eliges GPT-5.4, construyes para el function calling de OpenAI. Cambiar de modelo significa reconstruir.
Con MCP completamente adoptado, el modelo se convierte en un runtime, no en una plataforma. Tus herramientas, contexto y lógica de negocio viven en servidores MCP. El modelo es intercambiable. Puedes ejecutar el mismo agente con claude-opus-4-6 para una tarea, GPT-5.4-mini para otra, y un modelo local de Ollama para trabajo sensible al costo — todos consumiendo los mismos servidores MCP.
Este es un cambio fundamental de “IA como plataforma” a “IA como runtime de commodity”. Y cambia cómo piensas sobre el vendor lock-in.
La conclusión
MCP ya no es opcional. Es el USB-C de la integración de IA: imperfecto, ligeramente molesto de implementar la primera vez, pero el estándar de consenso claro al que todos convergieron.
Tu checklist para hoy:
- Identifica las herramientas y fuentes de datos que tus agentes necesitan
- Empieza a envolver esas en servidores MCP en lugar de integraciones directas
- Deja de escribir código de function calling específico de un proveedor
- Trata tus servidores MCP como infraestructura de primera clase
Los equipos que construyan capas limpias de servidores MCP ahora serán los que intercambien modelos libremente, escalen flujos de trabajo de agentes de forma económica y se adapten a lo que traiga la próxima generación de modelos.
El impuesto al caos siempre fue opcional. Ahora no hay excusa para pagarlo.
Lectura adicional: Docs oficiales de MCP · Anuncio original de Anthropic · Wikipedia: Model Context Protocol