Entrando en tema
«Potenciando el testing con IA y MCP Servers» charla ofrecida por Gastón Marichal y Marcos Manicera, durante la 9na edición del «Testing Day Chile«. Aquí una síntesis de la exposición e incluyo el desarrollo de los conceptos más importantes al final para un mejor entendimiento.
Introducción y fundamento del protocolo MCP
El Model Context Protocol (MCP) se define como un protocolo unificado y estándar que fue desarrollado por la empresa Antropic.

Su propósito fundamental es ofrecer una interfaz común para que la Inteligencia Artificial, específicamente los modelos LLM, puedan interactuar y «hacer cosas» en el mundo real, dándoles «brazos» para operar en herramientas, bases de datos y sistemas de archivos.
Antes de la existencia de MCP, la integración de modelos de IA con herramientas externas era un proceso altamente personalizado que dependía de código custom (hecho a medida). Cada proveedor de LLM tenía implementaciones únicas, las APIs no estaban estandarizadas, lo que generaba fallos, dificultaba la escalabilidad y ataba a los usuarios al proveedor (vendor locking).
MCP elimina esta dependencia al ser un protocolo interoperable, permitiendo la coexistencia de múltiples modelos y herramientas en un ecosistema unificado. Esto promueve la consistencia y la reutilización de los servidores MCP creados.
2. Principios operacionales y arquitectura
La arquitectura de MCP está diseñada para que el modelo de lenguaje mantenga el control sobre la información, aprovechando su capacidad de procesamiento.
• Interacción del usuario: El usuario interactúa con un Host (la herramienta de IA que se está utilizando, como Cloud Desktop o ChatGPT).
• Conexión con servidores: El Host levanta Clientes que entablan una conexión uno a uno con los servidores MCP.
• Procesamiento de la respuesta: Cuando el LLM necesita consultar un recurso (como una API del clima o una base de datos), el Host levanta la conexión con el MCP Server. Es crucial que la respuesta del MCP Server (que puede ser código JSON pesado o datos crudos) no va directamente al usuario, sino que regresa al LLM para ser reinterpretada y procesada, lo que resulta en una respuesta más amigable y aprovechando toda la capacidad del modelo.
3. Componentes clave de los MCP Servers
Los MCP Servers se componen de tres artefactos principales, denominados features:
Feature | Definición | Aplicación en el Modelo |
Tools | Son métodos que otorgan funcionalidad al modelo, permitiéndole «hacer algo» específico (e.g., controlar un navegador). | Definen la capacidad de acción del agente. |
Resources | Son fuentes de datos, información y contexto que consume el modelo para operar mejor. | Pueden ser funciones, esquemas de bases de datos o sistemas de archivos con grandes cantidades de datos que alimentan el LLM. |
Prompts | Artefactos orientados al usuario que permiten manipular y estructurar el texto recibido. | Permiten alojar instrucciones complejas (como la revisión de código estático) en el servidor para evitar que el usuario tenga que escribir el prompt de cero repetidamente. |
4. Implementación y desarrollo de Servidores MCP
La creación de servidores MCP es facilitada por un Software Development Kit (SDK) provisto por Antropic, disponible en varios lenguajes (como JavaScript).
• Estructura del servidor: Para crear un servidor vacío, se requiere un nombre y una versión.
• Definición de funciones (Tools): Para convertir una función programática en una Tool utilizable por la IA, se requiere describirla en lenguaje natural. La descripción debe ser altamente descriptiva (nombre y descripción) para que el LLM entienda qué herramienta debe invocar.
• Parámetros: Incluso los parámetros que recibirá la Tool (como el nombre de una ciudad para una consulta de clima) deben indicarse en lenguaje natural, lo que facilita que el LLM interprete preguntas complejas hechas por el usuario.
• Reutilización y comunidad: Existen repositorios públicos donde se pueden descargar y reutilizar MCP Servers ya creados para integrarlos con herramientas como Jira o Stripe, aunque se recomienda precaución con los repositorios comunitarios («use bajo su propio riesgo»).
5. Aplicaciones y casos de uso en Testing
El protocolo MCP tiene un impacto amplio en la función de testing:
• Automatización de Pruebas: Es uno de los usos más promovidos, abarcando la automatización End-to-End (E2E) y de APIs. Esto incluye el scripting, la optimización de selectores o locators, y la creación automática de capas (como el Page Object Model).
• Gestión de datos: Se puede usar para la creación o extracción de datos desde bases de datos (como PostGre) para ser utilizados en escenarios de prueba.
• Gestión de pruebas (Test Management): Permite conectarse a LLM para obtener información sobre casos de prueba creados, alcance y tracking (por ejemplo, obtener tareas en estado ready to testing de Jira).
• Pruebas no funcionales: Incluye la aplicación en pruebas de accesibilidad, rendimiento (performance), observabilidad y monitorización.
6. Conclusiones y recomendaciones de seguridad
La IA, potenciada por MCP, es un aliado que potencia al Performance Engineer y al tester. Sin embargo, la implementación debe ir acompañada de un cambio de mentalidad y un enfoque en las buenas prácticas.
• Juicio crítico del QA: El tester sigue siendo una figura indispensable y debe mantener su juicio crítico para revisar, validar y criticar lo que la IA realiza, ya que el software con IA no deja de ser propenso a fallos.
• Prompting y tareas: Se recomienda solicitar pequeñas tareas simples a los agentes en lugar de instrucciones complejas para evitar que el modelo se «maree». La calidad de las indicaciones (prompts) es directamente proporcional a la calidad de los resultados.
• Seguridad y confidencialidad: Es fundamental ser consciente del riesgo de seguridad que implica el uso de MCP, especialmente cuando se manejan datos sensibles o credenciales de acceso. Se debe evitar la práctica de ingresar contraseñas en texto plano a los LLM.
• Costos y evaluación: Se debe evaluar el costo-beneficio de los modelos, considerando que el uso de tokens introduce un costo extra a los proyectos.
Inicia la charla en el timestamp: 6:43:55
Desarrollo de conceptos
Entendiendo el Protocolo de Contexto de Modelo (MCP): Ese puente para la IA del que todos hablan ahora
1. El dilema de la IA: Inteligente pero aislada
Los asistentes de inteligencia artificial modernos poseen una capacidad de razonamiento asombrosa. Sin embargo, enfrentan un dilema fundamental: están intrínsecamente desconectados de las fuentes de datos específicas que una empresa o un usuario necesita, como repositorios de contenido, herramientas de negocio o entornos de desarrollo.
Podemos imaginar a estos modelos de IA como un genio experto atrapado en una habitación vacía. Aunque tiene una mente brillante, no puede ver ni escuchar nada del mundo exterior. Sin acceso a la información relevante, su capacidad para ofrecer respuestas verdaderamente útiles y contextualizadas es muy limitada.
¿Cómo podemos darle a esta IA los «ojos y oídos» que necesita para acceder a nuestro mundo de datos de forma segura y eficiente?
2. El enfoque antiguo: Un laberinto de conexiones a medida
Hasta ahora, conectar una IA a una nueva fuente de datos era una tarea compleja y repetitiva. Cada conexión requería una implementación personalizada y única. Este método tradicional es como viajar por el mundo y necesitar un traductor y un adaptador de enchufe diferente para cada país que visitas.
Este enfoque fragmentado es:
• Costoso: Requiere tiempo y recursos de desarrollo para cada nueva integración.
• Frágil: Las conexiones a medida son difíciles de mantener y actualizar.
• No escalable: A medida que crecen las fuentes de datos, la complejidad se vuelve inmanejable.
3. La solución: MCP, un estándar abierto y universal
El Protocolo de Contexto de Modelo (MCP) es la solución elegante a este problema. Es un estándar universal y abierto que actúa como un puente único entre los sistemas de IA y las múltiples fuentes de datos.
Continuando con la analogía del viaje, MCP es como un adaptador de corriente universal que funciona en todas partes. En lugar de llevar una bolsa llena de conectores diferentes, solo necesitas uno. MCP reemplaza el laberinto de integraciones personalizadas con un protocolo único, simple y confiable.
4. ¿Cómo funciona en términos sencillos?
El funcionamiento de MCP se basa en dos componentes principales que trabajan en conjunto:
• Servidores MCP:
◦ Son las «puertas de acceso» estandarizadas que abren las fuentes de datos. Para facilitar la adopción, ya existen servidores pre-construidos para sistemas populares como Google Drive, Slack, GitHub, Git, Postgres y Puppeteer.
◦ Al estar estandarizadas, cualquier IA compatible sabe exactamente cómo comunicarse con ellas para solicitar información.
• Clientes MCP:
◦ Son las «llaves maestras» que poseen las aplicaciones de IA (como Claude).
◦ Con esta única llave, una IA puede conectarse de forma segura a cualquier «puerta» de un servidor MCP para obtener el contexto que necesita y ofrecer una respuesta más precisa.
Un dato fascinante es que la IA no solo usa este protocolo, sino que también ayuda a construirlo. El modelo Claude 3.5 Sonnet es experto en construir rápidamente implementaciones de servidores MCP, facilitando que las organizaciones conecten sus conjuntos de datos más importantes y acelerando la expansión de todo el ecosistema.
5. ¿Por qué es tan importante? El valor real de MCP
Al estandarizar la forma en que la IA accede a los datos, MCP ofrece beneficios claros y tangibles tanto para quienes construyen la tecnología como para quienes la utilizan. Esto no es una promesa futura; es una realidad que ya está siendo implementada.
Beneficio Para… | Impacto Principal |
Desarrolladores | En lugar de construir y mantener innumerables conectores frágiles y personalizados, ahora pueden construir sobre un único protocolo estándar. Esto simplifica radicalmente el desarrollo y crea sistemas más confiables y sostenibles. |
Usuarios y Empresas | Obtienen respuestas mucho más relevantes y útiles al conectar fácilmente la IA a sus datos internos. Empresas pioneras como Block y Apollo ya lo están integrando, mientras que herramientas de desarrollo como Zed, Replit, Codeium y Sourcegraph lo usan para que la IA entienda mejor el contexto de tareas de codificación. |
Al simplificar las conexiones, MCP no solo mejora la tecnología, sino que abre la puerta a un futuro más colaborativo.
6. Una comunidad abierta para un ecosistema consciente del contexto
MCP no es solo una especificación técnica; es un proyecto colaborativo de código abierto diseñado para crear un ecosistema interconectado. A medida que este ecosistema madure, los sistemas de IA mantendrán el contexto a medida que se mueven entre diferentes herramientas y conjuntos de datos. Como lo expresa Dhanji R. Prasanna, Director de Tecnología (CTO) de Block:
Las tecnologías abiertas como el Protocolo de Contexto de Modelo son los puentes que conectan la IA con las aplicaciones del mundo real, asegurando que la innovación sea accesible, transparente y arraigada en la colaboración.
Anthropic extiende una invitación a desarrolladores, empresas y entusiastas de la tecnología para unirse a este esfuerzo.
¿Listo para empezar? Los desarrolladores pueden empezar a construir y probar conectores MCP hoy mismo. Aquí tienes cómo puedes involucrarte:
1. Instala servidores MCP pre-construidos a través de la aplicación de escritorio de Claude.
2. Sigue la guía de inicio rápido para construir tu primer servidor personalizado.
3. Contribuye a los repositorios de código abierto de conectores e implementaciones.
Juntos, podemos construir el futuro de una inteligencia artificial que realmente entienda el mundo en el que opera.
Fuente de consulta e inspiración: Introducing the Model Context Protocol