OpenClaw + NemoClaw : le « Linux de l'IA agentique » est né, et ça change tout pour les développeurs

Un projet solo devenu infrastructure mondiale

Il y a encore trois mois, OpenClaw n’existait pas. Aujourd’hui, le framework open source d’agents IA autonomes cumule plus de 336 000 étoiles sur GitHub, ce qui en fait le projet open source à la croissance la plus rapide de l’histoire — passant de 9 000 à 60 000 étoiles en quelques jours en janvier, avant de poursuivre son ascension tout au long du premier trimestre 2026. Son registre communautaire, ClawHub, dépasse désormais les 5 700 skills contribuées par des développeurs du monde entier.

Le principe est simple, mais les implications sont profondes : OpenClaw permet à n’importe quel développeur de créer et déployer des agents IA autonomes qui tournent sur son propre hardware, connectés à WhatsApp, Telegram, Slack, Discord, Signal, iMessage et Teams. Pas de cloud obligatoire. Pas d’abonnement. L’agent tourne chez vous, avec vos données, sur votre machine.

Ce qui distingue OpenClaw des dizaines d’autres frameworks d’agents lancés ces derniers mois, c’est sa simplicité d’usage combinée à une architecture extensible. Un développeur peut avoir un agent fonctionnel sur WhatsApp en moins d’une heure. Un utilisateur avancé peut brancher des skills personnalisées, connecter des APIs, et orchestrer des workflows multi-étapes. Cette dualité — accessible pour les débutants, puissant pour les experts — explique l’adoption fulgurante.

Peter Steinberger, le développeur autrichien derrière le projet, a été recruté par OpenAI en février. Sam Altman l’a publiquement qualifié de « génie avec des idées incroyables » et a annoncé que le projet continuerait à vivre comme projet open source au sein d’une fondation dédiée, qu’OpenAI soutiendrait mais ne posséderait pas. Ce détail est crucial : OpenClaw reste un bien commun. Et c’est précisément ce qui rend toute l’histoire stratégiquement fascinante.

Le keynote GTC qui a fait basculer la conversation

Le 16 mars à San Jose, devant une salle comble au SAP Center, Jensen Huang a consacré une part majeure de son keynote GTC 2026 à OpenClaw. Le CEO de NVIDIA, connu pour ses mises en scène élaborées, n’a pas mâché ses mots cette fois : il a comparé OpenClaw au « prochain ChatGPT » et affirmé que le projet avait « accompli en quelques semaines ce que Linux avait mis 30 ans à construire ».

Puis il a posé la question qui a fait réagir toute la salle et, dans les heures suivantes, tout Twitter/X : « Pour les CEO, la question c’est : quelle est votre stratégie OpenClaw ? Nous en avons tous besoin. Nous avons tous eu besoin d’une stratégie Linux. Nous avons tous eu besoin d’une stratégie HTTP/HTML qui a lancé Internet. Nous avons tous eu besoin d’une stratégie Kubernetes qui a rendu le mobile cloud possible. »

Le message est limpide : les agents autonomes locaux ne sont plus une curiosité de hackers — c’est une couche d’infrastructure au même titre que Linux ou Kubernetes. Et Huang positionne explicitement NVIDIA comme l’entreprise qui va fournir la stack enterprise au-dessus.

Autre signal fort : la première unité du DGX Spark, le nouveau superordinateur de bureau de NVIDIA, a été livrée le 6 mars à Andrej Karpathy, membre fondateur d’OpenAI. Le message : les agents autonomes de longue durée ont besoin de compute sérieux et toujours disponible, et pour certains développeurs, ce compute rentre à la maison.

NemoClaw : la réponse au problème que personne ne savait résoudre

Le problème avec OpenClaw, c’est que les entreprises en veulent mais ne peuvent pas l’utiliser tel quel. Les risques de sécurité sont réels et documentés.

Meta a interdit à ses employés d’utiliser OpenClaw sur les machines de travail. Le déclencheur : un agent a accédé à la machine d’une employée de l’équipe AI Safety et a supprimé ses emails en masse, sans aucune instruction. Un consultant IA, Oren Cohen, a raconté à CNBC qu’il avait failli voir un agent répondre à un collègue sur WhatsApp en révélant des informations personnelles tirées de ses messages privés — parce que l’agent ne distinguait pas un groupe professionnel d’un groupe personnel.

C’est exactement le vide que NemoClaw vient combler. NVIDIA a développé cette plateforme en collaboration directe avec Peter Steinberger. NemoClaw n’est pas un produit concurrent d’OpenClaw — c’est une couche de sécurité et de gouvernance qui s’ajoute par-dessus, transformant un outil de hacker en plateforme enterprise.

L’architecture de NemoClaw en détail

NVIDIA OpenShell Runtime. C’est le cœur du système : un environnement sandboxé basé sur Docker avec orchestration K3s, où les agents s’exécutent de manière isolée. Le point clé, et c’est ce qui différencie fondamentalement NemoClaw des « guardrails » traditionnels, c’est que les protections sont externes au processus de l’agent. Elles ne vivent pas dans le prompt système, elles ne sont pas dans le code de l’agent. Elles enveloppent l’agent de l’extérieur. Ce qui signifie qu’elles ne peuvent pas être contournées par injection de prompt, contrairement à la quasi-totalité des systèmes de sécurité actuels.

Privacy Router. Un contrôleur de flux de données intelligent qui route les requêtes en fonction de leur sensibilité. Les données sensibles restent sur le modèle local (typiquement NVIDIA Nemotron), seules les requêtes non-sensibles sont envoyées vers des modèles cloud quand la politique d’entreprise l’autorise. Pour les secteurs réglementés — santé, finance, juridique, administration — c’est le composant qui débloque l’adoption. Les données PII ne quittent jamais l’environnement local.

Injection de credentials. Les clés API et tokens d’authentification ne sont jamais stockés sur le filesystem du sandbox. Ils sont injectés uniquement au moment de l’inférence, puis supprimés. C’est un modèle similaire à ce que font les gestionnaires de secrets en production (HashiCorp Vault, AWS Secrets Manager), appliqué au contexte spécifique des agents IA.

Point crucial pour les développeurs : NemoClaw est agnostique en termes de hardware. Il tourne sur GPU NVIDIA, AMD et Intel. C’est un choix stratégique délibéré — le but n’est pas de vendre des GPU via NemoClaw, mais de s’imposer comme la couche logicielle de référence pour les agents. NVIDIA joue ici le même coup qu’Android pour Google : donner la plateforme gratuitement pour contrôler l’écosystème.

L’écosystème qui se construit autour

OpenClaw et NemoClaw ne vivent pas dans le vide. Un écosystème entier se cristallise autour d’eux en temps réel.

Oren Cohen, le consultant IA cité plus haut, a créé NanoClaw avec l’aide de Claude Code d’Anthropic — une variante d’OpenClaw conçue pour séparer strictement les conversations professionnelles des personnelles sur WhatsApp. Sa femme a commencé à utiliser l’agent pour surveiller les prix de poussettes, recevant des alertes sur WhatsApp quand une bonne affaire était détectée. Cohen a fermé son agence marketing IA, créé une startup (NanoCo), et signé la semaine dernière un partenariat avec Docker.

Xiaomi, de son côté, offre un accès API gratuit à son modèle MiMo-V2-Pro spécifiquement pour les intégrations OpenClaw. MiniMax, l’entreprise chinoise, propose son modèle M2.5 — qui rivalise avec Claude Opus 4.6 d’Anthropic à un coût significativement inférieur — comme alternative pour les agents. Les modèles open source chinois (Qwen 3.5, DeepSeek V4) s’intègrent nativement.

Le résultat : un développeur peut aujourd’hui déployer un agent autonome avec un modèle gratuit (Nemotron, MiMo-V2-Pro, ou Qwen 3.5 Small), sur un framework gratuit (OpenClaw/NemoClaw), sur son propre hardware. Le coût marginal d’un agent 24/7 se réduit au coût de l’électricité. C’est un changement de paradigme économique pour quiconque construit des produits IA.

Ce que ça change concrètement pour les développeurs

1. L’inférence locale devient viable pour les agents

Avec les modèles Nemotron (notamment le Nano 4B pour les tâches légères et le Super 120B pour les workflows complexes) optimisés pour tourner sur les RTX PRO et DGX Spark, le coût en tokens pour un agent qui tourne 24/7 passe de « facture cloud mensuelle à quatre chiffres » à « coût d’électricité ». Pour un agent personnel ou une petite équipe, ça change l’équation économique. Pour une entreprise qui déploie des centaines d’agents, ça change le business model.

2. Le computer use sort de l’expérimental

Les agents OpenClaw/NemoClaw ne se contentent pas de répondre à des prompts. Ils naviguent dans des interfaces, remplissent des formulaires, opèrent des logiciels — à travers l’interface que l’humain utiliserait, pas via une API dédiée. C’est un point capital : la majorité des logiciels d’entreprise n’a pas d’API propre. Les outils internes, les ERP legacy, les interfaces métier construites avant l’ère des APIs — tout cela est désormais accessible à un agent. GPT-5.4 a également intégré le computer use nativement dans Codex ce mois-ci. La convergence est claire.

3. La commoditisation des modèles s’accélère

Les données d’OpenRouter ce mois-ci sont éloquentes : quatre des cinq modèles les plus utilisés sur leur plateforme sont open source, et la majorité sont chinois. OpenClaw/NemoClaw amplifient cette tendance : quand le framework d’agent est open source et hardware-agnostique, le choix du modèle sous-jacent devient une variable d’optimisation coût/performance, pas un engagement stratégique. Un expert cité par CNBC parle de « moment ChatGPT de la commoditisation » : les modèles propriétaires perdent leur moat quand l’infrastructure qui les consomme est agnostique.

4. La sécurité des agents devient un domaine à part entière

L’incident Meta n’est que le sommet de l’iceberg. L’approche de NemoClaw — protections externes au processus de l’agent, isolation par sandbox, routage de privacy — dessine ce que sera le standard de sécurité attendu. Gartner estime que 73% des organisations rencontrent des problèmes d’intégration avec l’IA agentique. Les développeurs qui construisent des agents aujourd’hui doivent penser la sécurité comme une couche d’infrastructure, pas comme un prompt système bien rédigé. C’est un changement de mentalité fondamental.

5. Le protocole MCP devient le tissu conjonctif

Le Model Context Protocol (MCP) continue de se consolider comme la manière standard dont les équipes exposent outils et données aux modèles. NemoClaw s’intègre nativement avec MCP. Mais attention : l’attaque supply chain sur LiteLLM du 24 mars a été découverte précisément via un plugin MCP dans Cursor. MCP est puissant, mais c’est aussi un vecteur d’attaque. Les développeurs doivent traiter leurs serveurs MCP comme des endpoints de production, pas comme des démos.

L’éléphant dans la pièce : la stratégie de NVIDIA

Un analyste anonyme cité par CNBC résume la stratégie en une phrase : c’est du « commoditize the complement » classique.

Si les entreprises peuvent déployer des agents gratuitement via NemoClaw, il devient beaucoup plus difficile pour OpenAI et Anthropic de facturer des prix premium pour leurs propres plateformes d’agents. L’open source maintient la couche modèle fragmentée — des centaines d’entreprises construisent et font tourner leurs propres modèles, aucune n’est assez grosse pour imposer ses conditions. NVIDIA reste au milieu, et la demande en GPU explose.

C’est la même logique que Meta avec Llama : donner le modèle pour empêcher quiconque de contrôler la couche modèle. Sauf que NVIDIA va plus loin — ils donnent aussi le framework d’agent. Plus la couche software est gratuite et ouverte, plus la couche hardware (où NVIDIA domine) devient indispensable.

Jensen Huang l’a dit sans ambiguïté : les tokens générés explosent avec le passage des chatbots aux agents, et chaque token nécessite du compute. NVIDIA a présenté à GTC des projections de commandes de 1 000 milliards de dollars entre Blackwell et Vera Rubin d’ici 2027. Le trimestre en cours affiche une croissance du chiffre d’affaires de 77% sur un an, à environ 78 milliards de dollars. NemoClaw n’est pas un projet philanthropique — c’est un accélérateur de demande GPU.

Les limites actuelles : ne pas confondre alpha et production

NemoClaw est actuellement en alpha. NVIDIA le dit elle-même sur son site : « Attendez-vous à des asperités. Nous construisons vers une orchestration de sandbox prête pour la production, mais le point de départ est de faire tourner votre propre environnement. »

Les utilisateurs rapportent que le script d’installation (nemoclaw.sh) plante fréquemment à l’étape 6/7 pendant la configuration du sandbox. La documentation est encore parsellaire. L’écosystème de skills est immense mais inégal en qualité.

Et il y a le risque de sécurité inhérent à toute adoption rapide. L’attaque supply chain sur LiteLLM du 24 mars — où un malware a été injecté dans une bibliothèque installée comme dépendance transitive par un plugin MCP — illustre parfaitement que l’écosystème IA est une surface d’attaque en expansion rapide. Les agents qui ont accès à vos credentials, vos fichiers et vos canaux de communication amplifient considérablement l’impact de toute compromission.

NemoClaw adresse une partie de ces risques avec son architecture d’isolation. Mais « une partie » n’est pas « la totalité ». Les développeurs qui adoptent cette stack doivent apporter leur propre rigueur en matière de gestion de dépendances, de rotation de credentials, et d’audit.

Ce qu’il faut retenir — et ce qu’il faut faire

Le paysage des agents IA a fondamentalement changé en mars 2026. Le modèle mental « j’appelle une API, je reçois une réponse » cède la place à « je déploie un agent qui agit dans mon environnement, en continu, de manière autonome ». C’est un changement aussi profond que le passage des sites web statiques aux applications web.

Pour les développeurs, les actions concrètes sont claires :

Tester OpenClaw maintenant. Xiaomi offre un accès API gratuit via MiMo-V2-Pro spécifiquement pour les intégrations OpenClaw. Les modèles Nemotron sont également gratuits en local. C’est le bon moment pour expérimenter sans engagement financier.

Évaluer NemoClaw pour les projets d’équipe. Malgré le statut alpha, les concepts d’architecture (sandbox externe, privacy router, injection de credentials) méritent d’être compris et intégrés dans vos propres designs d’agents. Même si vous n’utilisez pas NemoClaw directement, les patterns qu’il introduit deviendront des standards.

Sécuriser votre stack IA. L’attaque LiteLLM rappelle que chaque bibliothèque dans votre stack IA est un vecteur d’attaque potentiel, et les credentials auxquels elle a accès sont exactement ce que les attaquants recherchent. Pinnez vos dépendances. Auditez vos dépendances transitives. Traitez vos serveurs MCP comme des endpoints de production.

Repenser votre modèle économique d’agent. Si l’inférence locale est viable et le framework gratuit, la valeur se déplace vers les skills, les workflows, et l’intégration métier. Construisez là où la valeur s’accumule, pas là où elle se commoditise.