Tu centralita conectada al estándar MCP

Conexia opera un servidor MCP (Model Context Protocol) oficial que expone tu centralita Infinity a cualquier LLM compatible: Claude, ChatGPT Enterprise, Gemini o Llama. Tools tipadas con JSON Schema, OAuth2 con scopes granulares y audit log RGPD-compliant para que tus agentes IA actúen sobre la voz de forma segura, bidireccional y self-discoverable.

Capacidades

Qué expone el servidor MCP de Conexia

MCP es el estándar abierto publicado por Anthropic en 2024 que normaliza cómo los LLMs se conectan a sistemas externos. El servidor de Conexia implementa las tres primitivas oficiales — Tools, Resources y Prompts — sobre la centralita Infinity, sin lock-in ni proveedor propietario.

Servidor MCP oficial

Endpoint MCP gestionado por Conexia, conforme al spec oficial de Anthropic. Sin desplegar nada en tu infraestructura: te damos credenciales y URL.

Tools tipadas con JSON Schema

Acciones como makeCall, transferCall, getQueueStatus, searchContact, endCall o setAgentState definidas con JSON Schema. Sin parseo de strings ni prompt engineering frágil.

Resources con cache

Lecturas estructuradas: callHistory, transcriptions, recordings, metrics/realtime, agents/state, queues/status. Cache con ETag para evitar consumo innecesario de tokens.

Prompts pre-definidos

Plantillas listas — Resumir llamada, Extraer entidades, Evaluar sentimiento, Generar follow-up email — versionadas y compartidas entre clientes MCP del tenant.

OAuth2 con scopes granulares

Flujo OAuth2 estándar con scopes por capacidad: read-only, transfer-only, full-control. Tokens revocables en un clic, expiración configurable y refresh tokens rotatorios.

Audit log RGPD-compliant

Cada invocación queda registrada con timestamp, cliente MCP, scope, tool, parámetros y resultado. Exportable, retención configurable y derecho de supresión por contacto.

Self-discoverable

El LLM descubre solo las tools, resources y prompts disponibles llamando al manifest MCP. Sin documentación que mantener: el contrato vive en el servidor.

Compatible con Claude, GPT, Gemini y Llama

Cualquier LLM que hable MCP funciona: Claude Desktop y Claude API, ChatGPT Enterprise con conectores MCP, Gemini con adapter, Llama vía cliente MCP open source.

Coexiste con webhooks y API REST

MCP no reemplaza webhooks ni la API REST: los tres canales conviven. Usa MCP para asistentes IA, webhooks para eventos push y REST para integraciones tradicionales.

Para tu equipo de IA y desarrollo

Si construyes asistentes, copilotos o agentes IA sobre LLMs, MCP es el camino corto: tu cliente MCP descubre las capacidades de la centralita y trabaja con tipos, no con prompts ad hoc.

  • Tools tipadas con JSON Schema, sin parseo de strings ni prompt engineering frágil
  • Bidireccional: la IA pregunta, la centralita responde y la IA dispara acciones
  • Estándar abierto sin lock-in: cambias de LLM sin reescribir la integración
  • SDK oficial de Anthropic en Python y TypeScript para construir clientes propios
  • Sandbox de pruebas con tenant aislado antes de tocar la centralita de producción

Para tu negocio

MCP convierte la centralita en un canal más para los asistentes IA que ya está usando tu organización: ventas, atención al cliente, operaciones y dirección obtienen automatizaciones que antes requerían integraciones a medida.

  • Copilotos de ventas en Claude o ChatGPT que disparan llamadas y rellenan el CRM
  • Asistentes IA internos que orquestan el callcenter durante picos de demanda
  • Automatizaciones que combinan centralita + CRM + ERP desde un único cliente MCP
  • Análisis IA del histórico de llamadas para detectar patrones, churn y oportunidades
  • Cumplimiento RGPD garantizado: datos en España, ENS Alto e ISO 27001
Implementación

Cómo se despliega

Plazo típico: 1 a 2 semanas. Trabajo conjunto del equipo técnico de Conexia con tu equipo de IA o desarrollo.

  • Alta del MCP server contra tu tenant Conexia Infinity y entrega de URL del endpoint
  • Configuración OAuth2 con scopes adaptados a cada cliente MCP y rotación de tokens
  • Mapeo de tools, resources y prompts a las capacidades de tu centralita y CRM
  • Activación del audit log con plazos de retención y exportación a tu SIEM si procede
  • Pruebas en sandbox con un tenant aislado antes de tocar producción
  • Formación al equipo técnico sobre MCP, scopes y patrones de uso recomendados
  • Soporte continuo sobre el conector MCP incluido en el contrato Infinity
Preguntas frecuentes

FAQ — MCP + Conexia

¿En qué se diferencia MCP de los webhooks que ya tenéis?

Los webhooks son eventos push unidireccionales: la centralita avisa a tu sistema cuando ocurre algo. MCP es bidireccional y tipado: la IA consulta resources, invoca tools con JSON Schema y recibe respuestas estructuradas. Conviven sin solaparse: webhooks para eventos en tiempo real, MCP para asistentes IA.

¿Funciona con cualquier LLM?

Funciona con LLMs compatibles con MCP: Claude (Desktop y API), ChatGPT Enterprise vía conectores, Gemini con adapter y Llama mediante clientes MCP open source. No funciona con modelos legacy o cerrados que no implementen el spec MCP.

¿Qué pasa con los datos sensibles y RGPD?

El servidor MCP corre en infraestructura de Conexia en España (ENS Alto, ISO 27001). El audit log registra cada acceso. La voz, transcripciones y metadatos no salen de la UE salvo que tu cliente MCP los reenvíe a un LLM externo, lo que controlas tú con los scopes OAuth2.

¿Puedo limitar qué puede hacer la IA?

Sí, mediante scopes OAuth2 granulares. Puedes emitir un token con read-only para análisis, otro con transfer-only para un asistente de soporte, y reservar full-control para administración. Los scopes son revocables en un clic.

¿Hay SLA y soporte sobre el conector MCP?

Sí. El servidor MCP comparte el SLA del servicio Conexia Infinity. El soporte sobre el conector y sobre la integración con tu cliente MCP está incluido en el contrato; los desarrollos a medida sobre clientes MCP propios se facturan por proyecto.

¿Reemplaza a la API REST y a los webhooks?

No. Los tres canales coexisten y resuelven problemas distintos. La API REST sigue siendo el camino para integraciones síncronas tradicionales, los webhooks para eventos push hacia sistemas no-IA, y MCP para asistentes y agentes basados en LLMs. Migrar de uno a otro no es necesario.

Conecta tu IA con la centralita

Cuéntanos qué LLM utiliza tu equipo, qué casos de uso tienes en mente y qué nivel de acceso necesitas. Te preparamos un sandbox MCP con scopes definidos y un plan concreto de implementación con alcance, tiempos y coste.