Aller au contenu
NLWeb : le protocole Microsoft qui veut rendre chaque site web interrogeable par l'IA

NLWeb : le protocole Microsoft qui veut rendre chaque site web interrogeable par l'IA

Retour aux articles

NLWeb est un protocole open source de Microsoft qui transforme n'importe quel site web en interface conversationnelle pour les agents IA. Il s'appuie sur le Schema.org que vous avez déjà, expose un endpoint /ask et un serveur MCP, et permet aux utilisateurs d'interroger votre contenu en langage naturel. Pour les sites riches en données structurées, c'est le prolongement logique de votre investissement SEO.

Depuis un an, on parle beaucoup de rendre son site visible pour les IA : données structurées, llms.txt, GEO. Mais tout ça reste passif — vous optimisez votre contenu et vous espérez que les LLMs vous citent. NLWeb change la donne. Au lieu d'attendre que l'IA vienne crawler votre site, vous lui offrez un point d'entrée direct : un endpoint /ask que n'importe quel agent peut interroger en langage naturel. Et ce n'est pas un projet de garage. NLWeb a été créé par R.V. Guha — l'homme derrière RSS, RDF et Schema.org — et lancé par Microsoft à Build 2025. Eventbrite, Shopify, TripAdvisor et O'Reilly Media font partie des premiers adopteurs. Le message est clair : le web structuré que Guha construit depuis 25 ans trouve enfin son consommateur natif — les agents IA.

NLWeb en 2 minutes : ce que c'est et comment ça marche

NLWeb (Natural Language Web) est à la fois un protocole ouvert et une implémentation de référence open source sous licence MIT. Le protocole définit comment un site web expose une interface conversationnelle. L'implémentation fournit tout le pipeline technique pour le faire tourner.

Le principe est élégant. NLWeb consomme les données Schema.org que votre site publie déjà — les balises JSON-LD dans vos pages, vos flux RSS, vos feeds Atom. Il les convertit en embeddings vectoriels (des représentations mathématiques du sens), les stocke dans une base vectorielle, et expose deux endpoints :

/ask — un endpoint REST que n'importe quelle application peut appeler avec une question en langage naturel. Il retourne des résultats structurés en Schema.org avec des scores de pertinence.

/mcp — un serveur MCP que les agents IA (Claude, GPT, Copilot) peuvent utiliser directement. J'ai détaillé le fonctionnement de MCP dans un article dédié.

Quand une requête arrive, NLWeb lance un pipeline en plusieurs étapes : décontextualisation de la question (réécriture en tenant compte de l'historique), vérification de pertinence (est-ce que la question concerne ce site ?), recherche sémantique dans la base vectorielle, puis scoring et ranking des résultats par des appels LLM spécialisés. Le résultat : des réponses précises, sourcées, structurées — pas une hallucination générique.

Pourquoi Schema.org est la clé de tout

Le choix architectural le plus malin de NLWeb, c'est de ne pas inventer un nouveau format de données. Il s'appuie sur Schema.org — le vocabulaire de données structurées que plus de 100 millions de sites web utilisent déjà. Si vous avez suivi les recommandations de mon article sur les données structurées, vous avez déjà la matière première.

Concrètement, NLWeb ingère vos types Schema.org — Article, Product, Event, Recipe, Place, PodcastEpisode — et les transforme en objets interrogeables. Comme les LLMs sont nativement entraînés sur le vocabulaire Schema.org, ils comprennent ces types sans configuration supplémentaire. Votre BlogPosting avec son author, ses datePublished et son mainEntityOfPage devient directement exploitable.

C'est là que l'investissement SEO classique prend une nouvelle dimension. Chaque propriété Schema.org que vous avez soigneusement renseignée — sameAs pour l'identité, speakable pour les passages clés, mentions pour les entités liées — devient un signal que NLWeb exploite pour répondre plus précisément aux questions. Le markup que vous faisiez pour Google sert maintenant directement aux agents IA.

En revanche, NLWeb fonctionne mieux avec du contenu structuré en listes d'items : des recettes, des produits, des événements, des épisodes de podcast, des articles. Il est moins adapté aux pages de contenu long et non structuré — une raison de plus pour bien typer vos données.

NLWeb vs llms.txt vs MCP : qui fait quoi dans la stack IA

blog.articles.nlweb-le-protocole-microsoft-qui-rend-chaque-site-interrogeable-par-l-ia.content.section3

Implémenter NLWeb : de la démo au production

L'implémentation de référence est disponible sur GitHub sous licence MIT. Le quick start est rapide : cloner le repo, installer les dépendances Python, configurer les clés API (LLM + base vectorielle), charger vos données via python -m tools.db_load [URL_RSS] [nom], et lancer le serveur. En quelques minutes, votre site a un endpoint /ask fonctionnel.

Mais — et c'est un « mais » important — la démo n'est pas la production. NLWeb fait environ 50 appels LLM par requête. Chaque question déclenche des dizaines de micro-appels spécialisés : réécriture, vérification de pertinence, scoring de chaque résultat, ranking final. C'est ce qui explique la qualité des réponses, mais aussi le coût et la latence (plusieurs secondes par requête). Pour un site à faible trafic ou un cas d'usage interne, c'est acceptable. Pour un site public à fort trafic, il faut sérieusement optimiser.

L'alternative Cloudflare mérite attention. Cloudflare AI Search propose une intégration NLWeb managée (en preview publique) : ils gèrent la base vectorielle (AutoRAG), le routing LLM, et exposent les endpoints /ask et /mcp sans que vous ayez à déployer de code Python. NLWeb devient une configuration, pas un déploiement. C'est probablement la voie la plus pragmatique pour la plupart des sites.

Côté bases vectorielles, NLWeb supporte Qdrant, Milvus, Azure AI Search, Elasticsearch, PostgreSQL et Cloudflare AutoRAG. Côté LLM, OpenAI, Anthropic, Google Gemini, DeepSeek et Hugging Face sont supportés. L'architecture est modulaire — vous choisissez votre stack.

Faut-il s'y mettre maintenant ?

Réponse honnête : ça dépend de votre site. NLWeb est particulièrement pertinent si vous avez un site riche en contenu structuré — un catalogue produits, un blog technique dense, une base de recettes, un annuaire d'événements. Si votre Schema.org est déjà bien renseigné (et si ce n'est pas le cas, commencez par ), NLWeb peut l'exploiter immédiatement.

Il est aussi pertinent si vous voulez vous positionner tôt sur le web agentique. Les agents IA qui interrogent des endpoints /ask sont encore rares, mais l'écosystème grandit vite. Être prêt quand les utilisateurs arriveront avec leurs agents, c'est un avantage concurrentiel — exactement comme avoir un site mobile-first avant que Google ne l'exige.

En revanche, si votre site est principalement du contenu long non structuré (pages institutionnelles, texte libre), NLWeb apportera peu. Et si vous n'avez pas encore de Schema.org solide, commencez par là avant de penser NLWeb — c'est la fondation.

Ma recommandation : en 2026, la priorité reste le socle. Un Schema.org riche et bien typé (Organization, BlogPosting, FAQPage, sameAs), un fichier llms.txt propre, un flux RSS actif. C'est ce triptyque qui rend NLWeb possible — et qui vous sert déjà pour le SEO classique et le GEO. Ensuite, si votre site a du contenu structuré en volume, testez NLWeb via Cloudflare AI Search ou un déploiement local. Le coût d'entrée est faible, et le signal que vous envoyez aux agents IA est fort.

Notre outil d'audit SEO & GEO gratuit vérifie déjà l'état de vos données structurées et de votre fichier llms.txt. Et si vous voulez aller plus loin — implémenter NLWeb, structurer vos données pour l'IA, ou définir votre stratégie GEO — parlons-en.

Pour aller plus loin