🔌Servidor MCP oficialEndpoint MCP gestionado por Conexia, conforme al spec oficial de Anthropic. Sin desplegar nada en tu infraestructura: te damos credenciales y URL.
🛠Tools tipadas con JSON SchemaAcciones como makeCall, transferCall, getQueueStatus, searchContact, endCall o setAgentState definidas con JSON Schema. Sin parseo de strings ni prompt engineering frágil.
📚Resources con cacheLecturas estructuradas: callHistory, transcriptions, recordings, metrics/realtime, agents/state, queues/status. Cache con ETag para evitar consumo innecesario de tokens.
📝Prompts pre-definidosPlantillas listas — Resumir llamada, Extraer entidades, Evaluar sentimiento, Generar follow-up email — versionadas y compartidas entre clientes MCP del tenant.
🔐OAuth2 con scopes granularesFlujo OAuth2 estándar con scopes por capacidad: read-only, transfer-only, full-control. Tokens revocables en un clic, expiración configurable y refresh tokens rotatorios.
🧾Audit log RGPD-compliantCada invocación queda registrada con timestamp, cliente MCP, scope, tool, parámetros y resultado. Exportable, retención configurable y derecho de supresión por contacto.
🔍Self-discoverableEl LLM descubre solo las tools, resources y prompts disponibles llamando al manifest MCP. Sin documentación que mantener: el contrato vive en el servidor.
🤖Compatible con Claude, GPT, Gemini y LlamaCualquier LLM que hable MCP funciona: Claude Desktop y Claude API, ChatGPT Enterprise con conectores MCP, Gemini con adapter, Llama vía cliente MCP open source.
⇄Coexiste con webhooks y API RESTMCP no reemplaza webhooks ni la API REST: los tres canales conviven. Usa MCP para asistentes IA, webhooks para eventos push y REST para integraciones tradicionales.
¿En qué se diferencia MCP de los webhooks que ya tenéis?Los webhooks son eventos push unidireccionales: la centralita avisa a tu sistema cuando ocurre algo. MCP es bidireccional y tipado: la IA consulta resources, invoca tools con JSON Schema y recibe respuestas estructuradas. Conviven sin solaparse: webhooks para eventos en tiempo real, MCP para asistentes IA.
¿Funciona con cualquier LLM?Funciona con LLMs compatibles con MCP: Claude (Desktop y API), ChatGPT Enterprise vía conectores, Gemini con adapter y Llama mediante clientes MCP open source. No funciona con modelos legacy o cerrados que no implementen el spec MCP.
¿Qué pasa con los datos sensibles y RGPD?El servidor MCP corre en infraestructura de Conexia en España (ENS Alto, ISO 27001). El audit log registra cada acceso. La voz, transcripciones y metadatos no salen de la UE salvo que tu cliente MCP los reenvíe a un LLM externo, lo que controlas tú con los scopes OAuth2.
¿Puedo limitar qué puede hacer la IA?Sí, mediante scopes OAuth2 granulares. Puedes emitir un token con read-only para análisis, otro con transfer-only para un asistente de soporte, y reservar full-control para administración. Los scopes son revocables en un clic.
¿Hay SLA y soporte sobre el conector MCP?Sí. El servidor MCP comparte el SLA del servicio Conexia Infinity. El soporte sobre el conector y sobre la integración con tu cliente MCP está incluido en el contrato; los desarrollos a medida sobre clientes MCP propios se facturan por proyecto.
¿Reemplaza a la API REST y a los webhooks?No. Los tres canales coexisten y resuelven problemas distintos. La API REST sigue siendo el camino para integraciones síncronas tradicionales, los webhooks para eventos push hacia sistemas no-IA, y MCP para asistentes y agentes basados en LLMs. Migrar de uno a otro no es necesario.