MCP : Model Context Protocol

Comprendre le protocole MCP (Model Context Protocol)

Les IA génératives avancent à grande vitesse, mais leur grande limite réside dans la difficulté à les connecter aux données et services externes. Le standard MCP constitue une solution prometteuse.

Avant des standards comme le MCP, relier un chatbot à des données externes (bases de données, mails, outils) était un bricolage complexe. On passait par des orchestrateurs maison : des frameworks spécifiques (Langchain, n8n, etc.) créant des connexions via des intégrations maison, des prompts interminables et des plugins propriétaires. Cette approche est coûteuse, peu évolutive et pose des défis en matière de sécurité, est rarement viable en production.

Anthropic a introduit fin 2024 le Model Context Protocol (MCP) pour y remédier : un standard ouvert reliant un modèle de langage à n’importe quelle ressource externe en quelques lignes de code, c’est ce qu’ils ont appelé le « port USB-C » de l’IA.

Cet article explore le MCP : ce qu’il est, son utilité, ses avantages et ses cas d’usage.

Le MCP : une connexion universelle à vos données et vos outils

Le MCP est un protocole de communication client-serveur, utilisant le format JSON-RPC, qui standardise les échanges entre un client MCP : le modèle de langage ou l’agent IA, et un serveur MCP : un connecteur capable d’interagir avec une source de données externe comme une API, une base SQL, Google Drive ou Slack.

L'apport des MCP pour les modèles d'IA
L’apport des MCP pour les modèles d’IA (source : Descope)

Côté serveur, trois briques sont essentielles : les Resources qui renvoient des informations structurées (par exemple, le contenu d’un fichier), les Tools qui exécutent des actions (comme envoyer un email sur Gmail ou ajouter du texte sur Notion), et les Prompts qui offrent des modèles d’instructions pré-paramétrés.

Un cycle d’utilisation typique se déroule de cette manière :

  • l’IA reçoit une requête, par exemple « Envoie le rapport Q3 à l’équipe ».
  • Elle fait alors appel au tool find_file du serveur Google Drive MCP, puis au tool send_email du serveur Gmail MCP.
  • Finalement, l’utilisateur visualise un message prêt à être envoyé, l’IA ayant géré l’ensemble du processus.

Les défis pré-MCP : Pourquoi ce nouveau protocole était nécéssaire ?

Les fenêtres de contextes des LLM restent limitées

Avant le MCP, plusieurs obstacles majeurs entravent l’efficacité et l’intégration des modèles de langage. La limite de la fenêtre de contexte des LLM rend l’injection massive d’informations dans les prompts à la fois coûteuse en ressources et en performance, avec un risque élevé que le modèle oublie des éléments cruciaux.

Empiler de grandes quantités de textes devient rapidement impraticable. C’est ici que des approches comme le RAG (Retrieval Augmented Generation) deviennent pertinentes, permettant d’injecter dynamiquement des informations spécifiques issues de bases de connaissances externes au moment de la génération, complétant ainsi les capacités du MCP à connecter les IA à des sources de données volumineuses.

Des problèmes de standardisation

Par ailleurs, l’écosystème est freiné par une prolifération d’intégrations sur-mesures. Sans standard unifié, connecter une IA spécifique (Claude, GPT, Llama) à un outil particulier (Salesforce, Notion, Jira) exige un développement sur mesure. Cette multiplication des connecteurs engendre une complexité ingérable, entravant l’innovation et alourdissant la maintenance.

L’aspect sécurité est à prendre en compte

Enfin, la sécurité des données reste un point bloquant pour de nombreux cas d’usages de l’IA générative en entreprise. Transférer des informations sensibles directement dans un prompt envoyé à un service externe signifie les exposer hors du périmètre de contrôle de l’entreprise.

Avec le MCP, un serveur peut opérer au sein du réseau interne de l’organisation, ne transmettant au modèle de langage que les informations strictement nécessaires et filtrées, renforçant ainsi la confidentialité et la sécurité. Bien que les MCP vont poser d’autres problèmes sécuritaires liés aux actions réalisables sur les différents outils connectés.

Fonctionnent et avantages des MCP

Imaginez que vous demandiez à une IA : « Combien de ventes avons-nous réalisées au troisième trimestre ? ». Grâce au protocole MCP, l’agent d’IA peut transformer cette question en une requête formelle, interroger directement vos systèmes (par exemple une base de données), puis reformuler la réponse dans un langage naturel.

Le protocole repose sur une architecture client-serveur. Le client MCP vit dans l’agent IA : il génère des requêtes structurées adaptées au contexte. Ces requêtes sont ensuite transmises à un serveur MCP, qui les traduit dans le langage du service cible (comme SQL pour une base de données), exécute la demande, puis reformule la réponse dans un format exploitable par l’IA.

Deux fonctionnalités essentielles permettent cette interaction :

  • Roots : points d’entrée vers des ressources comme des fichiers ou bases de données.
  • Sampling : permet au serveur d’invoquer à son tour une réponse générée par l’IA, créant ainsi des enchaînements d’agents intelligents.

Exemple concret : une requête POST /mcp avec l’outil "sql.query" et la commande "SELECT sum(sales) FROM Q3" est envoyée à un serveur MCP connecté à Postgres. Celui-ci répond {"result": "1 234 567"} — que l’agent IA reformule automatiquement en langage naturel : « Les ventes du troisième trimestre s’élèvent à 1 234 567 unités. »

Techniquement, les protocoles MCP fonctionnent de manière similaire au function calling introduit dans les LLM : une fonction est appelée avec des arguments précis, et une réponse structurée est renvoyée. La différence majeure, c’est que MCP ne repose pas sur un modèle unique, mais sur une architecture distribuée : les services peuvent vivre en dehors du modèle, et interagir via des serveurs spécialisés — ce qui rend l’ensemble plus flexible.

Le MCP offre des avantages significatifs :

  • il rend les IA véritablement pertinentes grâce à des réponses issues de données fraîches et actualisées, plutôt que d’un savoir figé.
  • Il permet une économie de temps considérable pour les développeurs, car des centaines de serveurs MCP open-source (pour Google Drive, GitHub, Notion, Spotify, Qdrant, etc.) sont déjà disponibles et prêts à l’emploi.
  • L’interopérabilité est totale : un même serveur MCP peut fonctionner avec plusieurs modèles de langage, et inversement, il est possible de changer de LLM sans avoir à recoder les intégrations existantes.
  • La sécurité est également intégrée, avec la possibilité de garder les données en local, d’appliquer des contrôles d’accès fins (ACL) et d’auditer les appels.
  • Enfin, le MCP assure une scalabilité linéaire, simplifiant l’ajout de nouveaux outils ou modèles qui ne nécessitent qu’une seule installation, évitant ainsi la complexité des intégrations multiples.

Quelques applications des MCP

Le MCP démontre déjà son potentiel à travers divers cas d’usage concrets. Dans le développement logiciel, des plateformes comme Replit ou Cursor expérimentent des serveurs MCP pour git, les tests et les pull requests, permettant à l’IA de lire, documenter, compiler et même pousser du code via un simple dialogue.

Exemple de MCP intégré à Cursor
Exemple de MCP intégré à Cursor (source : composio.dev)

Pour l’analyse de données, un manager peut demander les ventes par région pour un trimestre donné ; l’agent IA interroge alors les dépôts de données internes via MCP, effectue les calculs et retourne un tableau de données qui peut être accompagné d’une analyse et de visuels.

Le support client est également transformé : un chatbot peut lire une base de connaissances via MCP, créer un ticket dans Zendesk et mettre à jour le CRM, offrant des réponses hyper-personnalisées et des actions automatisées.

Par ailleurs, des assistants personnels tout-en-un, à l’instar de VeyraX qui fédère plus de 40 services (Gmail, Calendar, Trello…), bénéficient d’une connexion MCP unique pour permettre à l’IA de planifier, envoyer des mails et archiver en continu.

Enfin, dans le secteur industriel, un serveur IoT MCP peut exposer des données de capteurs et des manuels techniques, permettant à un agent de détecter une anomalie, de consulter la documentation machine et de proposer une marche à suivre en temps réel.

Conclusion

Le Model Context Protocol transforme radicalement l’IA, la faisant passer du statut de « bavard érudit » à celui d’« agent opérateur » proactif et efficace, capable d’interagir concrètement avec le monde numérique. Grâce au MCP, une IA peut par exemple consulter des agendas, identifier des créneaux communs, envoyer des invitations et réserver une salle, marquant une rupture par sa capacité d’action directe.

Standard ouvert soutenu par des acteurs majeurs et une communauté active, le MCP favorise l’innovation collaborative et la pérennité. Il réduit les coûts et la complexité d’intégration en permettant de brancher des serveurs existants ou d’en développer sur des bases partagées. La sécurité est renforcée : les serveurs peuvent être hébergés localement, contrôlant les données sensibles et ne communiquant à l’IA que le nécessaire avec des permissions gérées. Ainsi, la pertinence des réponses et actions de l’IA est décuplée par l’accès à des informations contextuelles, précises et en temps réel.

Dans cette logique, Google développe également A2A (Agents to Agents), un protocole d’interopérabilité entre agents qui vise à normaliser leurs échanges, qu’ils soient internes ou tiers. Comme le MCP, A2A s’inscrit dans une vision décentralisée et modulaire de l’IA, où les agents peuvent collaborer en toute sécurité et à grande échelle sur des tâches complexes.