![]()
Les modèles d’Intelligence Artificielle (IA) sont devenus remarquablement performants. Toutefois, pour qu’ils passent du statut de générateur textuel efficace à celui d'agent autonome avancé, ils doivent pouvoir s’interfacer avec des outils et des sources externes comme des bases de données, des systèmes d'envoi d'emails ou des manipulateurs de fichiers. Historiquement, ces intégrations passaient par des APIs classiques.
Mais fin 2024, un nouveau standard est apparu : le Model Context Protocol (MCP), introduit par Anthropic. Ce protocole, pensé spécifiquement pour booster les intégrations entre les Modèles de Langage (LLM) et les agents IA, est rapidement devenu une infrastructure essentielle. Le MCP est un standard open-source pour connecter les applications IA aux systèmes externes. Il est souvent décrit comme le « port USB-C de l’IA », permettant de brancher une nouvelle source ou un nouvel outil qui est détecté et utilisable en temps réel, sans qu'il soit nécessaire de recoder quoi que ce soit.
Ce protocole représente la grammaire nécessaire pour une nouvelle espèce de communication, où les messages peuvent porter de la mémoire, négocier et évoluer sans intervention humaine.
Pourquoi un MCP ? Limites des LLMs classiques
À la base, un LLM reçoit une requête (prompt) et génère une réponse textuelle, et c’est tout. Cette capacité est suffisante pour produire des mots, mais elle est très limitée pour l’automatisation ou la prise de décision dans le monde réel.
Pour qu'un agent IA puisse agir et orchestrer des tâches, il a besoin de capacités étendues que le LLM seul ne possède pas :
- Accéder à l'information fraîche ou spécifique : L’IA doit pouvoir accéder à des données qui ne sont pas incluses dans son modèle, comme des fichiers via un système RAG (Retrieval-Augmented Generation) ou des recherches sur le net.
- Exécuter des actions : Les agents doivent être capables de réaliser des tâches concrètes, telles que créer une réunion, envoyer un courriel, ou effectuer une réservation.
- Appeler des outils externes : Il est nécessaire d’appeler des API, des bases de données ou des scripts.
Le MCP est la réponse à ce besoin : il fournit un protocole standardisé qui permet de brancher facilement des outils et des ressources à l’agent de manière scalable, testable et industrialisable. C'est le chaînon manquant pour donner aux modèles la capacité de prendre des décisions et d’interagir avec un écosystème diversifié de sources de données locales et tierces (outils externes). Avec le protocole MCP, au lieu de jongler avec des dizaines d'API disparates, les développeurs peuvent désormais se connecter une seule fois et démarrer avec le MCP, simplifiant ainsi considérablement les intégrations, réduisant le code source et facilitant la maintenance.
Architecture du Model Context Protocol (MCP)
Ce diagramme montre certains des principaux composants d’un système MCP.
![]()
Le MCP est comparable à un interprète universel : de la même manière qu'un interprète permet à deux personnes parlant des langues différentes de communiquer, le MCP permet à ChatGPT, Claude ou d'autres LLMs de standardiser la manière de communiquer avec vos outils externes et sources de données.
L'architecture du MCP repose sur trois éléments clés :
- Host Application (Hôte) : C'est l'application principale, souvent l'agent IA lui-même.
- MCP Client (Client) : Une librairie qui assure la connexion entre l'hôte et le serveur MCP.
- MCP Server (Serveur) : Le serveur expose les services externes.
Les échanges au sein du protocole utilisent le JSON RPC 2.0, un standard très répandu, et le dialogue se fait via HTTP ou Server Sent Events (ou stdio pour une utilisation locale).
Un serveur MCP expose principalement trois types de « primitives » (ou capacités) :
- Tools (Outils) : Ce sont les actions que l’IA peut invoquer, comme getweather ou createevent.
- Resources (Ressources) : Ce sont des données que l’IA peut lire à la demande, incluant des documents, des fichiers, ou des enregistrements.
- Prompt templates (Modèles de prompts) : Des modèles de prompts prêts à l’emploi (bien que cela soit optionnel).
Une caractéristique fondamentale du MCP est la découverte dynamique (discoverability). Un agent IA peut interroger le serveur à tout moment en demandant « qu’est-ce que tu sais faire ? », et le serveur lui renvoie instantanément la liste des fonctionnalités disponibles et mises à jour. Cette capacité d’auto-adaptation à la volée permet aux LLMs d'utiliser de nouvelles capacités dès la connexion.
Exemple d'utilisation du MCP
Pour illustrer l'utilisation du MCP, prenons l'exemple d'un agent de prise de rendez-vous.
Imaginez un utilisateur disant à son application : « Je veux prendre un café avec Thomas la semaine prochaine ». Dans un système sans protocole standardisé, l'application ne pourrait répondre que : « Désolé, je ne sais pas qui est Pierre ni où prendre un café ».
Avec le MCP, l'orchestration se déroule de manière modulaire et générique :
- Découverte des Capacités : L’application interroge le serveur MCP : « Quels outils/ressources as-tu ? ».
- Réponse du Serveur : Le serveur répond en listant les capacités connectées, par exemple : « J’ai un outil de prise de rendez-vous, une liste de cafés, une API calendar… ».
- Action de l'Agent : L’agent demande à l’IA quelle ressource est pertinente pour la requête (par exemple, la liste de cafés). L’agent récupère alors cette information via le MCP et la fournit au LLM.
- Prise de Décision : L’IA détermine ensuite quel outil (une action) appeler et avec quels paramètres pour finaliser la tâche (par exemple, appeler l'API calendar pour réserver ou envoyer l’invitation).
Grâce au MCP, les messages deviennent autonomes. Une requête comme « Schedule dinner with mom » ne se contente pas de bloquer un calendrier, elle négocie avec l’agent de la mère, vérifie les restrictions alimentaires, et peut même réserver le restaurant. D'autres exemples d'applications incluent la connexion d'agents à Google Calendar et Notion pour des assistants IA personnalisés, ou l'utilisation de Claude Code pour générer des applications web complètes à partir de designs Figma ou Canvas.
Exemple concret
Voici un exemple tiré de la formation sur les MCP
Imaginons qu'un utilisateur demande : « Quels sont mes dépôts GitHub ? » Voici la procédure étape par étape :
- Requête de l'utilisateur : l'utilisateur soumet sa question à votre serveur
- Découverte d'outils : votre serveur doit savoir quels outils sont disponibles pour être envoyés à Claude
- Échange d'outils de liste : votre serveur demande au client MCP les outils disponibles
- Communication MCP : Le client MCP envoie un ListToolsRequest au serveur MCP et reçoit unListToolsResult
- Requête Claude : Votre serveur envoie la requête de l'utilisateur ainsi que les outils disponibles à Claude
- Décision d'utilisation de l'outil : Claude décide qu'il doit appeler un outil pour répondre à la question
- Demande d'exécution d'outil : votre serveur demande au client MCP d'exécuter l'outil spécifié par Claude
- Appel d'API externe : le client MCP envoie un CallToolRequest au serveur MCP, qui effectue l'appel d'API GitHub réel
- Résultats en retour : GitHub répond avec les données du référentiel, qui circulent via le serveur MCP sous forme de CallToolResult
- Résultat de l'outil à Claude : Votre serveur renvoie les résultats de l'outil à Claude
- Réponse finale : Claude formule une réponse finale en utilisant les données du référentiel
L'utilisateur obtient une réponse : votre serveur renvoie la réponse de Claude à l'utilisateur
![]()
Il est clair que ce flux comporte de nombreuses étapes, mais chaque composant a une responsabilité claire. Le client MCP élimine la complexité de la communication avec le serveur, vous permettant de vous concentrer sur la logique de votre application tout en conservant l'accès à des outils externes et des sources de données performants.
MCP vs API
Le Model Context Protocol ne vise pas à remplacer les API classiques, mais plutôt à la sublimer. Il s'agit d'une surcouche standardisée spécifiquement conçue pour les besoins des agents IA et des LLMs. En réalité, de nombreux serveurs MCP agissent comme des wrappers autour d’APIs existantes, offrant une interface unifiée adaptée à l'IA. Voici les différences majeures entre le MCP et une API classique :
| Caractéristique | MCP (Model Context Protocol) | API classique |
|---|---|---|
| Philosophie | Pensé pour les agents IA/LLM | Généraliste (utilisable par toute application) |
| Interface | Interface et découverte standardisées | Chaque API a ses propres règles et endpoints |
| Découverte | Découverte dynamique des fonctions/outils | Nécessite une documentation, pas d'auto-découverte |
| Connectivité | Un seul connecteur pour tout l’écosystème | Un connecteur/adaptateur par API |
| Adaptation | Les agents IA s’auto-adaptent | Tout changement nécessite un développement manuel |
En résumé, le MCP permet à un agent IA d’explorer, d’utiliser et d’enchaîner de nouveaux outils sans intervention humaine. C'est un véritable Plug & Play : l'ajout d'un nouvel outil MCP le rend immédiatement utilisable sans qu'il soit nécessaire de modifier ou recoder le client. Pour les développeurs, le MCP réduit la complexité et le temps de développement lors de l'intégration avec un agent IA. Il offre une standardisation qui met fin aux variations d'authentification et de formats de documentation. Si vous avez des services existants, vous pouvez créer un simple wrapper MCP autour de vos APIs pour bénéficier de ces avantages.
Conclusion
Le Model Context Protocol est en train de devenir la grammaire de la conscience numérique ou plus simplement la colonne vertébrale des Agents IA. Il structure l’intégration, fiabilise les échanges et rend les workflows scalables, marquant un tournant crucial pour l'industrialisation de l'IA agentique en entreprise. Un véritable « couteau suisse » unifié et prêt à l'emploi.
L'adoption du MCP est rapide et significative. Anthropic a encouragé son utilisation sur Claude 3.5, et OpenAI a annoncé un support natif pour ChatGPT et Assistants API en mars.
Si vous développez des agents IA, vous devez intégrer le MCP dans votre veille technologique. Ce protocole ouvert (utilisable avec tous les modèles LLMs comme OpenAI, Google ou open source) est le nouveau socle pour la prochaine génération d’agents IA professionnels. Il permet l'interopérabilité essentielle dont l'IA a besoin pour continuer à évoluer.
Nous entrons dans l'ère où les applications deviennent évolutives, modulaires et « agent-ready » pour l'ensemble du système d'information de l'entreprise.
Références
- Documentation officielle MCP
- Awesome MCP Servers : collection de serveurs MCP
- Github MCP : documentation Github
- MCP vs API
- Visual Guide to Model Context Protocol
- Pourquoi le MCP est si important avec Tim Berglund