Volver al Blog
18 de marzo de 2026 10 min de lectura

MCP Ganó. Esto es lo que significa para tu arquitectura

AI Arquitectura MCP Agentes Herramientas de desarrollo

En noviembre de 2024, Anthropic lanzó silenciosamente un estándar abierto llamado Model Context Protocol (MCP). No fue espectacular. El blog de lanzamiento era técnico y discreto. La comunidad dev colectivamente se encogió de hombros y siguió adelante.

Para marzo de 2025, OpenAI lo había adoptado. Google DeepMind lo siguió. Microsoft lo lanzó en Azure Databricks. Para el verano de 2025, era el protocolo dominante para conectividad de herramientas-AI — una adopción más rápida que la que OAuth, OpenAPI o HTTP/1.1 lograron en etapas comparables.

MCP ganó. La pregunta ya no es “¿debería usarlo?” Es “¿cómo reestructuro mi arquitectura alrededor de él?”

Vamos al punto.


El problema que resolvió (y por qué era un caos antes)

Antes de MCP, si querías conectar un agente de IA a herramientas externas y fuentes de datos, tenías un problema matemático simple pero brutal:

M APIs × N agentes = caos

Cada combinación requería un conector personalizado. Cada proveedor de modelos tenía su propio spec para llamada de funciones. OpenAI tenía un formato. Anthropic tenía otro. Cuando OpenAI lanzó “function calling” en 2023, fue útil — pero seguía siendo propietario. Si construiste para GPT-4, nada funcionaba con Claude. Si construiste para Claude, no funcionaba con Gemini.

Terminabas con una maraña de integraciones a medida. ¿El agente cambia de modelo? Reconstruye los conectores. ¿Se agrega una nueva herramienta? Actualiza cada agente que podría usarla. Era el mundo pre-USB para la IA.

MCP es USB. Un enchufe estándar.

El cambio arquitectónico se ve así:

Antes:

Agente A → Conector personalizado → Herramienta 1
Agente A → Conector personalizado → Herramienta 2
Agente B → Conector personalizado → Herramienta 1  ← esfuerzo duplicado
Agente B → Conector personalizado → Herramienta 2  ← más esfuerzo duplicado

Después:

Agente A ─┐
           ├→ MCP Client → MCP Server (Herramienta 1)
Agente B ─┘             → MCP Server (Herramienta 2)

Escribe el servidor MCP una vez. Cualquier agente compatible con MCP puede usarlo. Para siempre.


Cómo funciona MCP realmente

MCP está construido sobre JSON-RPC 2.0 y toma mucha inspiración del Language Server Protocol (LSP) — el mismo estándar que impulsa funciones de IDE como autocompletado y go-to-definition en cada editor y lenguaje.

La arquitectura tiene tres capas:

1. MCP Host

La aplicación de IA en sí misma. Piensa en Claude, Cursor, tu agente personalizado. El host coordina todo y administra uno o más MCP clients.

2. MCP Client

Vive dentro del host. Mantiene una conexión persistente a un MCP server y extrae contexto de él bajo demanda.

3. MCP Server

Un programa independiente que escribes una vez. Expone tus datos, APIs y funcionalidad a través de tres primitivos:

PrimitivoQué esEjemplo
ToolsFunciones que el agente puede llamarsearch_database, send_email, run_query
ResourcesDatos estructurados que el agente puede leerarchivos, registros de BD, respuestas de API
PromptsPlantillas de prompts reutilizablesconjuntos de instrucciones específicos del dominio

La elegancia está en la separación: un servidor MCP, muchos posibles clientes. Un agente, muchos posibles servidores.

┌──────────────────────────────────────────────┐
│           MCP Host (tu agente)               │
│   ┌─────────────┐    ┌─────────────────────┐ │
│   │  MCP Client │───▶│   MCP Server (BD)   │ │
│   └─────────────┘    └─────────────────────┘ │
│   ┌─────────────┐    ┌─────────────────────┐ │
│   │  MCP Client │───▶│  MCP Server (Email) │ │
│   └─────────────┘    └─────────────────────┘ │
│   ┌─────────────┐    ┌─────────────────────┐ │
│   │  MCP Client │───▶│  MCP Server (GitHub)│ │
│   └─────────────┘    └─────────────────────┘ │
└──────────────────────────────────────────────┘

Por qué ganó tan rápido

Estándares comparables tardaron años en alcanzar este nivel de adopción:

  • OAuth 2.0 → ~4 años para dominio multi-proveedor
  • OpenAPI/Swagger → ~5 años
  • HTTP/1.1 → la mayor parte de los 90s

MCP lo logró en menos de un año. ¿Por qué?

1. Timing. Todas las empresas importantes estaban luchando por lanzar agentes de IA al mismo tiempo. Nadie quería construir la fontanería dos veces. MCP llegó exactamente cuando el dolor era más intenso.

2. Era “suficientemente bueno”. Lanzamiento imperfecto — lo que paradójicamente ayudó. La controversia impulsó el engagement, la comunidad empujó mejoras, y para cuando estaba pulido, todos ya estaban en él.

3. Anthropic lo donó de inmediato. En diciembre de 2025, MCP fue entregado a la Agentic AI Foundation (AAIF) bajo la Linux Foundation, co-fundada por Anthropic, Block y OpenAI. Ningún proveedor lo posee. Eso eliminó las objeciones de “no fue inventado aquí” de los competidores.

4. La analogía con LSP resonó. Todo desarrollador senior entiende LSP. “Es LSP pero para herramientas de IA” es un pitch de una oración que no necesita presentación.


Lo que realmente necesitas cambiar

Si estás construyendo algo con agentes de IA en 2026 y no estás pensando en MCP, aquí está por dónde empezar:

Si tienes herramientas/datos que tus agentes necesitan → Construye servidores MCP

Deja de cablear llamadas directas a APIs en tu código de agente. Envuelve tus herramientas en servidores MCP. Tu conector de base de datos, tus APIs internas, tu acceso al sistema de archivos — si más de un agente alguna vez lo necesitará, debería ser un servidor MCP.

Un servidor MCP mínimo en Node.js se ve así:

import { Server } from "@modelcontextprotocol/sdk/server/index.js";
import { StdioServerTransport } from "@modelcontextprotocol/sdk/server/stdio.js";

const server = new Server(
  { name: "my-db-server", version: "1.0.0" },
  { capabilities: { tools: {} } }
);

server.setRequestHandler(ListToolsRequestSchema, async () => ({
  tools: [{
    name: "query_users",
    description: "Consulta la tabla de usuarios",
    inputSchema: {
      type: "object",
      properties: { filter: { type: "string" } },
      required: ["filter"]
    }
  }]
}));

server.setRequestHandler(CallToolRequestSchema, async (request) => {
  const { filter } = request.params.arguments;
  const results = await db.query(`SELECT * FROM users WHERE ${filter}`);
  return { content: [{ type: "text", text: JSON.stringify(results) }] };
});

const transport = new StdioServerTransport();
await server.connect(transport);

Si estás construyendo agentes → Usa MCP clients, no llamadas directas a API

No implementes function calling específico de un proveedor. Usa un MCP client que abstraiga eso. Tu agente se mantiene portable entre modelos.

Si estás en un equipo → Publica tus servidores MCP como infraestructura compartida

Tu servidor MCP de autenticación, tu servidor MCP de logging, tu servidor MCP de base de conocimiento interna — estos se convierten en infraestructura compartida, no en trabajo DIY por equipo. Piénsalos como paquetes npm internos: escribe una vez, publica, consume en todas partes.


La implicación arquitectónica de la que nadie habla

Aquí está lo que creo que se subestima del impacto a largo plazo de MCP: desacopla la capacidad de la elección del modelo.

Ahora mismo, la mayoría de los equipos eligen su modelo de IA primero, luego construyen herramientas alrededor de él. Eliges Claude, construyes para la API de Claude. Eliges GPT-5.4, construyes para el function calling de OpenAI. Cambiar de modelo significa reconstruir.

Con MCP completamente adoptado, el modelo se convierte en un runtime, no en una plataforma. Tus herramientas, contexto y lógica de negocio viven en servidores MCP. El modelo es intercambiable. Puedes ejecutar el mismo agente con claude-opus-4-6 para una tarea, GPT-5.4-mini para otra, y un modelo local de Ollama para trabajo sensible al costo — todos consumiendo los mismos servidores MCP.

Este es un cambio fundamental de “IA como plataforma” a “IA como runtime de commodity”. Y cambia cómo piensas sobre el vendor lock-in.


La conclusión

MCP ya no es opcional. Es el USB-C de la integración de IA: imperfecto, ligeramente molesto de implementar la primera vez, pero el estándar de consenso claro al que todos convergieron.

Tu checklist para hoy:

  • Identifica las herramientas y fuentes de datos que tus agentes necesitan
  • Empieza a envolver esas en servidores MCP en lugar de integraciones directas
  • Deja de escribir código de function calling específico de un proveedor
  • Trata tus servidores MCP como infraestructura de primera clase

Los equipos que construyan capas limpias de servidores MCP ahora serán los que intercambien modelos libremente, escalen flujos de trabajo de agentes de forma económica y se adapten a lo que traiga la próxima generación de modelos.

El impuesto al caos siempre fue opcional. Ahora no hay excusa para pagarlo.


Lectura adicional: Docs oficiales de MCP · Anuncio original de Anthropic · Wikipedia: Model Context Protocol