De l’Aristocratie Technologique à la Masse Attritionnable : La Leçon de 2010 face aux Guerres de 2026

Le Hors-Série n°10 de DSI (2010) n’était pas seulement une revue technique, mais un manifeste stratégique dont les prophéties se sont heurtées à l’inertie des modèles de force occidentaux. Alors que les auteurs de l’époque appelaient à un « échange travail/capital », nous avons persisté dans la préservation d’armées « aristocratiques », rares et chères. En 2026, la rupture ne réside plus dans le robot lui-même, mais dans sa capacité à alimenter un Jumeau Numérique du champ de bataille, permettant une accélération sans précédent de la boucle OODA grâce à des systèmes attritionnables.

I. LE PARADIGME DE 2010

En 2010, la robotique militaire basculait de l’expérimentation vers l’industrialisation massive. Joseph Henrotin y identifiait les forces motrices qui dictent aujourd’hui la manœuvre :

  1. Le Facteur Socioculturel : Le soldat et le général de 2026 sont les enfants de la « culture geek » décrits en 2010. Leur compréhension intuitive de l’informatique permet d’envisager l’interface homme-machine non plus comme une contrainte, mais comme une extension cognitive.
  2. La Trinité des Milieux :
  • Air : Le drone comme vecteur de persistance (MALE).
  • Mer : La « marsupialisation » (bâtiments mères), concept alors visionnaire de Thales et ECA.
  • Terre : La reconnaissance de la « viscosité » du terrain, identifiée comme le défi majeur de l’autonomie tactique.

II. LES VOIX QUE NOUS N’AVONS PAS ÉCOUTÉES

Trois experts livraient des analyses qui constituent aujourd’hui le socle de l’OSINT (Open Source Intelligence) sur les théâtres contemporains :

  • P.W. Singer (La Guerre Open Source) : Il annonçait la fin du monopole étatique sur la haute technologie. “La guerre devient « open source » […] Quelqu’un a construit une version du Raven pour à peine 1 000 dollars.” La munition rôdeuse artisanale et le drone FPV sont les héritiers directs de cette vision.
  • Michel Goya (L’Armée Aristocratique) : Il dénonçait la fragilité des armées d’échantillons. En privilégiant la sophistication unitaire, nous avons perdu la capacité d’usure. Le robot devait être l’outil de la masse ; il est resté, par conservatisme, un objet précieux.
  • Bernard Pikeroen (Souveraineté Industrielle) : Il prévenait que sans stratégie européenne de transfert industriel, nous serions vassalisés par les technologies étrangères.

III. POURQUOI SOMMES-NOUS EN RETARD ?

Le constat est sans appel : si nous sommes aujourd’hui à la traîne sur la masse et la souveraineté, c’est pour trois raisons identifiées dès 2010 mais ignorées :

  1. Le Déni du Caractère Attritionnable : Nous avons continué à construire des drones comme des avions (chers, rares). L’OSINT en Ukraine ou en Mer Noire montre que l’efficacité réside dans la consommabilité. Un système attritionnable n’est pas un système “bas de gamme”, c’est un système dont le coût permet de saturer les défenses adverses.
  2. La Naïveté du Signal : Le magazine mentionnait le piratage des flux vidéo à 18$. Nous avons ignoré cette alerte. En 2026, la guerre électronique (EW) rend caducs nos systèmes trop dépendants du GPS et des liaisons de données centralisées.
  3. L’Inertie du Transfert Industriel : Le “patinage” des programmes de drones européens décrit en 2010 a conduit à une dépendance durable envers les systèmes dont nous ne maîtrisons ni le code source, ni le calendrier d’évolution.

IV. DU ROBOT-OBJET AU JUMEAU NUMÉRIQUE

C’est ici que se situe la véritable rupture par rapport à 2010. Le robot n’est plus une “entité physique isolée”, il est le terminal nerveux d’une intelligence globale.

La Proposition : La Guerre des Jumeaux Numériques La force réside désormais dans la capacité à générer un “Digital Twin” du champ de bataille en temps réel grâce à des milliers de micro-capteurs robotisés attritionnables (terrestres, aériens, maritimes) :

  1. Synthèse Totale : Chaque capteur devient un pixel d’une image globale mise à jour chaque seconde.
  2. Hyper-OODA : L’intelligence artificielle traite cette masse de données pour réduire le délai entre l’observation et l’action à quelques secondes, permettant une prise de décision hyper-accélérée.
  3. Visualisation et Simulation : Le Jumeau Numérique permet de simuler des options tactiques et de saturer l’ennemi dans le réel après l’avoir vaincu dans le virtuel.

V. POUR UNE STRATÉGIE DE PUISSANCE (2026-2040)

Pour reprendre l’initiative stratégique, nous devons décliner les propositions suivantes :

  • 1. Doctrine de la Masse Attritionnable : Passer du “zéro perte” au “sacrifice calculé des machines”. Produire des essaims de drones dont la perte est intégrée à la manœuvre pour saturer économiquement les systèmes sol-air adverses.
  • 2. Souveraineté du Code et des Algorithmes : Nationaliser les bibliothèques d’IA de ciblage. La souveraineté ne réside plus dans la cellule du drone, mais dans les modèles de reconnaissance de formes et de navigation sans GPS (SLAM).
  • 3. Intelligence Distribuée (Edge Computing) : Développer des essaims autonomes capables de décider en local pour contrer le déni d’accès (A2/AD) et le brouillage des communications.
  • 4. Robotisation Logistique Intégrale : Déployer massivement des “mules” terrestres pour redonner au fantassin sa fonction de commandement en l’allégeant de la “viscosité” physique du terrain.

CONCLUSION : LA FIN DE L’ENTITÉ ISOLÉE

Le magazine de 2010 nous avait fourni le diagnostic ; nous avons échoué sur l’ordonnance. En 2026, l’innovation ne réside plus dans l’objet qui tire, mais dans le réseau qui voit, comprend et décide. Le futur de la guerre n’est plus une armée de Terminators, mais une nuée de capteurs attritionnables créant un double numérique du réel.

La victoire appartient désormais à celui qui générera le Jumeau Numérique le plus fidèle et le plus rapide pour dominer la boucle OODA.


#DefenseTech #Strategie #Attritionnable #Masse #OODA #DigitalTwin #DSI2010 #GuerreDuFutur

Le Métavers de la préparation opérationnelle n’est pas un “monde”. C’est une capacité.

Le mot métavers déclenche souvent une association automatique : Meta Platforms, sa division Reality Labs, une promesse grand public, puis une forme de désillusion.

Je propose un cadrage radicalement différent.

Ici, le Métavers de la préparation opérationnelle n’est pas un produit grand public, ni un énième “environnement immersif”. C’est une capacité stratégique : une machine à produire de la compétence collective, sous contrainte, avec preuve à l’appui.


Prologue littérature : la fiction n’a pas prédit des casques… elle a prédit la bataille pour la cognition

Dans Snow Crash, le métavers n’est pas un gadget : c’est un espace persistant où l’identité, l’influence et les rapports de force deviennent opérables.

Dans La Stratégie Ender, l’environnement d’entraînement n’est pas “réaliste” : il est transformant. Il change la manière de décider sous stress, dans l’incertitude, face à un adversaire.

Dans Ready Player One, il est refuge… et donc avertissement : un métavers peut fabriquer de la compétence — ou fabriquer de l’évasion.

La littérature donne la clé : le sujet profond n’est pas la 3D. Le sujet, c’est comment on fabrique (ou on casse) la capacité à comprendre et décider.


Définir le métavers proprement : une architecture, pas un décor

Pour être convaincant, il faut une définition qui résiste au marketing.

La littérature scientifique décrit le métavers comme une famille de systèmes : des environnements numériques (souvent 3D), persistants, multi-utilisateurs, soutenant une forme de présence/identité, et dont la maturité dépend notamment de l’interopérabilité et de la scalabilité (capacité à monter en charge). Le papier classique de Dionisio et al. (2013) est utile parce qu’il fixe des invariants au lieu de vendre une vision.

Et, pour la préparation opérationnelle, j’ajoute un invariant qui sépare immédiatement le sérieux du folklore :

Sans instrumentation, ce n’est pas un Métavers de préparation : c’est un décor interactif. Instrumentation = traces, replays, timeline unifiée, décisions capturées, comparaison entre itérations.

Ce point est crucial : l’entraînement n’a de valeur que s’il produit de la progression observable, pas seulement une “expérience”.


Pourquoi le Métavers de la préparation opérationnelle est un accélérateur M2MC

Le multi-milieux / multi-champs (M2MC) n’est pas un concept “à expliquer”. C’est un concept à entraîner.

Parce que le vrai défi n’est pas d’additionner des milieux et des champs ; c’est d’intégrer :

  • des temporalités différentes,
  • des frictions d’interopérabilité (systèmes, procédures, sémantique),
  • des dégradations (liaisons, capteurs, navigation),
  • des effets non cinétiques (cyber, informationnel, électromagnétique),
  • et, en haute intensité, l’attrition et la rupture comme conditions normales.

Le live (terrain réel) est irremplaçable, mais il a deux limites structurelles : la répétition contrôlée et la mesure fine à grande échelle. Or la haute intensité exige une chose impitoyable : apprendre vite, en collectif, sous dégradation.

Le Métavers de la préparation opérationnelle devient alors l’endroit où l’on peut :

  1. répéter des situations rares/dangereuses,
  2. varier systématiquement les conditions,
  3. instrumenter les décisions,
  4. rejouer et corriger.

En clair : augmenter la densité d’apprentissage entre deux confrontations au réel.


Guerre cognitive : le métavers comme “cognitive range”

La guerre cognitive vise ce que beaucoup d’organisations entraînent le moins : l’attention, la confiance, l’interprétation, la cohérence collective — bref, la mécanique intime de la décision. Les travaux associés à NATO STO ont justement le mérite de formaliser ce champ sans l’enrober de mystique.

Le Métavers de la préparation opérationnelle est une opportunité majeure ici, à une condition : rester dans le registre défensif et pédagogique.

On ne “joue” pas à manipuler. On s’entraîne à résister à :

  • l’ambiguïté persistante (informations plausibles mais incomplètes),
  • la surcharge (volume, vitesse, interruptions),
  • les contradictions (signaux dissonants, sources qui s’opposent),
  • la dégradation progressive (perte partielle de repères).

La valeur n’est pas dans l’inject. Elle est dans l’AAR : qu’est-ce qu’on a cru ? pourquoi ? quel signal aurait dû nous alerter ? quelles règles d’hygiène informationnelle manquaient ?

C’est là que l’entraînement devient une arme de préparation à la haute intensité : on entraîne la capacité à garder un jugement collectif stable quand le monde devient bruyant, contesté, incomplet.


Wargaming : la colonne vertébrale cognitive du métavers

Le wargaming, au fond, est un laboratoire d’hypothèses et d’arbitrages humains. Donc un laboratoire cognitif.

Les Tactical Decision Games (TDG), notamment formalisés et utilisés dans des contextes militaires (ex. US Marine Corps University), sont particulièrement intéressants : ils forcent la décision, l’explicitation, la comparaison, la progression.

Le métavers apporte ce qui manque souvent au wargame “table” :

  • la persistance (un monde qui garde l’historique),
  • l’instrumentation (la preuve : décisions + contexte + temps),
  • la rejouabilité (replay multi-vue),
  • la scalabilité (collectifs, niveaux, multi-acteurs),
  • la capacité à simuler la dégradation (et ses effets sur la coordination).

Wargaming = moteur cognitif. Métavers = milieu persistant instrumenté. Ensemble, ils deviennent une machine d’entraînement qui ne vise pas “le réalisme” mais la robustesse décisionnelle.


Training-as-Code : rendre la préparation vivante, testable, améliorable

Je conserve Training-as-Code parce que l’idée est puissante : arrêter de traiter l’entraînement comme un événement, et le traiter comme une capacité qui s’améliore.

Concrètement :

  • Versionner les scénarios (hypothèses, ROE, frictions, objectifs, injects, critères de réussite).
  • Tester (non-régression : s’assurer qu’on entraîne bien ce qu’on prétend entraîner, et qu’on ne “dilue” pas la valeur d’entraînement au fil des ajustements).
  • Instrumenter (capturer décisions, bascules d’hypothèses, temps de récupération, dérives de compréhension partagée).
  • Rejouer (AAR outillé, comparaison inter-rotations, progression mesurable).

La différence entre une “démo immersive” et une capacité de préparation, c’est exactement ça : la traçabilité du progrès.


Les métriques qui distinguent un vrai Métavers de préparation d’un “monde virtuel”

Si je devais être brutal : si tu ne mesures pas ces choses-là, tu n’entraînes pas vraiment la haute intensité, tu l’illustres.

  1. Stabilité du tempo décisionnel sous dégradation (pas “vite”, stable).
  2. Dérive de compréhension partagée (intention → exécution, et la vitesse de recadrage).
  3. Temps de récupération cognitive après ambiguïté/contradiction/surcharge.
  4. Vitesse d’apprentissage collectif (combien d’itérations pour corriger un pattern).

Ce sont des indicateurs “durs” parce qu’ils visent ce qui gagne ou perd une campagne : la capacité à conserver une cohérence collective quand tout pousse à la fragmentation.


Conclusion : le mot “métavers” a été abîmé — c’est une chance

Parce que ça nous oblige à revenir au réel.

Le Métavers de la préparation opérationnelle n’est pas une promesse de monde parallèle. C’est une capacité à :

  • entraîner l’intégration M2MC,
  • exercer la résilience cognitive,
  • industrialiser l’apprentissage collectif,
  • préparer la haute intensité autrement qu’en la mythifiant.

Autrement dit : ce métavers-là ne sert pas à “s’évader”. Il sert à tenir.


Références (sélection)

  • Dionisio, J. D. N., Burns, W. G., Gilbert, R. (2013). 3D Virtual Worlds and the Metaverse: Current Status and Future Possibilities (ACM).
  • CICDE : travaux doctrinaux sur le multi-milieux / multi-champs (M2MC).
  • Fondation pour la Recherche Stratégique : analyses sur l’intégration multidomaine/M2MC.
  • NATO STO : publications relatives à la guerre cognitive (cadres, enjeux, impacts sur la décision).
  • Publications et retours d’expérience sur le wargaming/TDG en contexte militaire (USMCU et corpus wargaming).

L’Iliade gagne la bataille. L’Odyssée gagne le monde.

Et si la transformation numérique avait besoin d’idéationautes… plus que de héros ?

Il y a deux façons de raconter une guerre.

📌 L’Iliade, mentionne le choc frontal : la force, l’honneur, les lignes nettes, les grands gestes. 📌 L’Odyssée, raconte l’après : la ruse, la navigation, l’endurance, les détours… et surtout le retour au réel.

Et si, dans nos organisations, on confondait trop souvent la transformation numérique avec une Iliade ? Alors qu’elle ressemble presque toujours… à une Odyssée.


1️⃣ L’Iliade : quand l’entreprise rêve d’Achille

Dans l’Iliade, Achille avance droit. Il est rapide, puissant, décisif.

C’est la tentation de beaucoup d’organisations :

  • un grand plan
  • une grande annonce
  • un grand programme
  • un grand budget
  • un grand “Go Live” (qui doit être parfait)

On appelle ça “stratégique”. Souvent, c’est surtout… héroïque.

Le problème : une transformation numérique n’est pas une bataille à gagner. C’est un système vivant à réorienter, sous contrainte, avec de l’inertie, de la dette et du brouillard.

Et là, Achille a un handicap : il est excellent pour vaincre… mais pas pour naviguer.


2️⃣ L’Odyssée : la vérité du terrain (et la mécanique du réel)

L’Odyssée raconte autre chose : un leader qui comprend un principe simple, mais brutal :

👉 Le chemin compte autant que la destination.

Ulysse n’est pas “le plus fort”. Il est le plus adaptatif, le plus stratège, le plus résilient.

Il avance par :

  • signaux faibles
  • essais, erreurs
  • alliances
  • arbitrages
  • contournements intelligents
  • bricolage parfois
  • courage souvent

En clair : il avance par itérations, avec le réel comme juge de paix.

Et c’est précisément ce qui rend l’Odyssée “niveau COMEX” : elle ne raconte pas un projet… elle raconte un mode de pilotage.


2️⃣🔁 Peut-on être Iliade ET Odyssée : frapper fort ET apprendre vite ?

Oui. Et c’est même la seule posture viable.

Parce qu’une organisation qui ne fait que l’Iliade devient brutale, rigide… et finit par casser. Et une organisation qui ne fait que l’Odyssée devient agile, curieuse… et finit par dériver.

La clé n’est donc pas de choisir un camp. La clé, c’est d’orchestrer : deux moteurs, une seule boussole.

  • Iliade : exécuter, industrialiser, sécuriser, tenir la promesse
  • Odyssée : explorer, tester, apprendre, réduire l’incertitude

Et surtout : ce n’est pas “tout, partout, tout le temps”. C’est séparer ce qui doit être stable de ce qui doit rester exploratoire.

Trois règles simples suffisent :

  • un cap unique (non négociable), sinon l’Odyssée devient errance
  • un portefeuille explicite (Run / Change), sinon l’Iliade devient agitation
  • deux cadences de décision, sinon on tue l’apprentissage… ou on désorganise l’exécution

L’Iliade sans Odyssée, c’est la casse. L’Odyssée sans Iliade, c’est la dérive. Les deux, c’est une stratégie.


3️⃣ L’idéationaute : celui qui explore l’espace des possibles… et revient avec du testable

Dans un monde instable, la compétence rare n’est pas “avoir une idée”.

C’est :

savoir naviguer dans les idées

cartographier le possible

revenir avec des options actionnables

C’est cela, un idéationaute.

Un idéationaute transforme une question floue en mécanique opérationnelle :

  • flou → hypothèses
  • hypothèses → options
  • options → tests
  • tests → décisions

Il ne “rêve” pas d’innovation. Il l’opère.

Et voici le point disruptif : dans beaucoup d’organisations, on mesure encore la transformation par des livrables. Alors que le vrai KPI stratégique, c’est :

👉 la vitesse de réduction d’incertitude (et la capacité à décider sans se raconter d’histoires)


3️⃣🔁 Ce que le COMEX oublie souvent : l’exploration est un investissement, pas un débat

Une Odyssée ne se pilote pas avec des opinions. Elle se pilote avec une règle simple :

  • explorer pour ouvrir des options
  • converger pour engager des ressources
  • couper sans états d’âme ce qui n’apprend plus

Autrement dit : la transformation n’est pas un “programme”. C’est un portefeuille d’expériences, avec une discipline d’allocation.

Et cela change tout, parce que cela introduit une logique rare : ✅ la possibilité de dire stop avant d’avoir dépensé tout le budget, tout le crédit politique… et tout le moral de l’équipage.


4️⃣ Les “argonautes” du numérique : pas un casting de héros… un équipage qui tient la mer

Dans une Odyssée, le héros solitaire est un mythe pratique… mais un mythe quand même. Ulysse ne rentre pas chez lui parce qu’il a une bonne slide “Vision 2030”. Il rentre (quand il rentre 😅) parce qu’il a un équipage.

(Mythologie mise à part : Ulysse a des compagnons, Jason a des Argonautes. Mais la transformation exige les deux dimensions : des compagnons qui tiennent la durée, et des argonautes qui osent l’expédition.)

Et c’est là que beaucoup d’organisations se trompent : on parle “d’équipe transformation”, mais on pense parfois “casting de profils cools”.

On fantasme une bande de profils survitaminés :

  • makers qui bricolent des prototypes à la vitesse de la lumière,
  • hackers qui voient les failles avant que le système existe,
  • MHackers qui relient la vision au cambouis,
  • champions qui embarquent tout le monde sans demander la permission,
  • et quelques “opérateurs” qui font avancer sans faire de bruit.

Ils sont précieux. Ils sont même indispensables.

Mais si votre navire ne contient que cela, vous n’avez pas une expédition… vous avez une startup pirate : beaucoup d’énergie, beaucoup d’idées, et parfois un léger problème de… cap, discipline, et gouvernail.

Parce qu’un vrai équipage, ce n’est pas une tribu de héros atypiques. C’est une diversité organisée.

Dans une transformation, il faut aussi :

  • des experts métier (ceux qui connaissent les récifs, les contraintes, les vraies règles du jeu),
  • des architectes (qui évitent de transformer le navire en patchwork flottant),
  • des spécialistes cyber / data / infra (ceux qui s’assurent qu’on ne navigue pas avec une coque percée),
  • des juristes, acheteurs, financiers (les gardiens du temple — ceux qui transforment une bonne idée en décision solide : sans eux, pas de voile… et parfois pas le droit de sortir du port),
  • des RH / change / formation (parce que “embarquer” n’est pas une métaphore, c’est un travail),
  • et des opérationnels qui continuent à faire tourner le navire pendant qu’on discute de l’avenir.

Ce sont des profils parfois moins “instagrammables” que le hacker au hoodie. Mais ce sont eux qui font que l’expédition ne se termine pas au premier coup de vent.

👉 La puissance d’une équipe ne vient pas de l’uniformité. Elle vient de la complémentarité.

Les profils atypiques — makers, hackers, MHackers — ne sont pas “le centre” du navire. Ils sont les multiplicateurs d’effets de l’équipage :

  • ils accélèrent quand le collectif hésite,
  • ils ouvrent des options quand tout semble verrouillé,
  • ils transforment une intention en preuve,
  • ils réduisent la distance entre décision et exécution.

Mais ils ne remplacent pas :

  • l’expertise,
  • la stabilité,
  • la rigueur,
  • la continuité.

Les MHackers aident à manœuvrer plus vite.

Les experts empêchent de confondre vitesse et précipitation.

Le collectif rend la transformation durable.


📌COMEX : le leadership en Odyssée, ce n’est pas “inspirer”, c’est “tenir la mer”

Un comité de direction n’est pas là pour produire de la certitude. Il est là pour produire du cap, des arbitrages, et de la protection pour l’équipage. Gouverner une Odyssée, c’est :


5️⃣ Le vrai monstre : ce ne sont pas les Cyclopes… ce sont les Sirènes

Dans l’Odyssée, les menaces ne sont pas toujours violentes. Elles sont séduisantes.

Les sirènes modernes, je les vois tous les jours :

🎶 “Cette fois, on va tout standardiser.” 🎶 “Cette fois, on va tout industrialiser.” 🎶 “Cette fois, on va tout rationaliser.” 🎶 “Cette fois, la plateforme va tout résoudre.”

Et aujourd’hui, la plus envoûtante de toutes :

🎶 “Cette IA va remplacer l’effort.”


🛡️ (spécial IA) : “L’IA fera le travail à votre place.”

Non. L’IA n’est ni un capitaine, ni un jugement, ni une responsabilité.

C’est un amplificateur : elle accélère l’exploration, la formulation et la mise en forme… mais elle ne remplace pas le discernement.

Dans une transformation, l’enjeu n’est pas d’obtenir une réponse rapide.

L’enjeu, c’est de réduire l’incertitude sans perdre le cap, en gardant le réel comme juge de paix.

L’IA peut aider à naviguer dans les hypothèses.

Mais le pilotage — et le coût d’une erreur — restent humains.


Et c’est précisément pour cela que cette sirène-là est dangereuse : elle ne ment pas totalement… elle simplifie. Elle promet une navigation sans fatigue, alors que c’est l’effort (et l’apprentissage) qui fait arriver.

L’IA peut être un sextant. Elle ne sera jamais le gouvernail.


6️⃣ Une transformation réussie ressemble rarement à Troie

On fantasme souvent le “moment Troie” : le coup génial, le cheval, le renversement immédiat.

En réalité, les transformations qui durent ressemblent à une Odyssée :

  • des étapes
  • des îles
  • des retours en arrière
  • des petites victoires
  • des arbitrages exigeants
  • et une obsession : ne pas perdre le cap

Le cap, c’est le sens. Le sens, c’est le terrain. Le terrain, c’est le réel.


7️⃣ La méthode simple : explorer large, mais revenir utile

Un idéationaute n’est pas un touriste du possible.

Son rôle n’est pas “d’avoir 100 idées”. C’est d’en ramener 3 qui tiennent.

🧭 Règle d’or : diverger comme un explorateur — converger comme un opérateur.

Concrètement :

  • 1 problème bien cadré
  • 5 pistes possibles
  • 2 tests rapides
  • 1 décision opérée
  • et un cycle suivant immédiatement

Et surtout : un rythme. Parce qu’une Odyssée sans cadence, cela s’appelle… une errance.


🛡️Ce n’est pas parce qu’une idée est brillante qu’elle mérite un programme. Une idée mérite d’abord un test. Et un test mérite une mesure. Et une mesure mérite un arbitrage. Tout le reste est de la littérature.


📎 COMEX — 5 questions (format punchlines)

  1. Quel cap est non négociable, même quand la mer se lève ?
  2. Quelle incertitude devons-nous réduire avant de prétendre décider ?
  3. Qui tient le gouvernail, et à quel rythme tranche-t-on ?
  4. Quel risque acceptons-nous… et lequel refusons-nous d’acheter ?
  5. Qu’arrêtons-nous dès que cela n’apprend plus ?

Conclusion : les organisations n’ont pas besoin de héros… mais de navigateurs

L’Iliade produit des statues. L’Odyssée produit des trajectoires.

Et dans un monde numérique, instable, saturé de complexité…

Le talent stratégique n’est pas de frapper fort : c’est de tenir le cap, apprendre vite, ajuster sans se renier.

On ne manque pas d’Achille. On manque d’idéationautes.

Et surtout… d’équipages capables d’opérer le voyage.

PS : Jason, si vous lisez ceci : oui, on vous a pris les Argonautes. Mais rassurez-vous — on a ajouté une gouvernance, un rythme de décision… et un vrai gouvernail.

Le jour où ça casse… sommes-nous prêts ?

Le jour où ça casse… sommes-nous prêts ?

On parle de souveraineté numérique depuis des années. On empile des ambitions, des feuilles de route, des mots.

Mais la souveraineté n’est pas une posture. C’est une capacité.

Une capacité très simple à formuler, et très difficile à construire :

Continuer à fonctionner, décider et agir… même sous contrainte.

Sous contrainte, cela veut dire : désengagement d’un partenaire, pression économique, rupture de fournisseur, cyberattaque, crise internationale, sabotage informationnel, ou panne systémique.

Ce n’est pas une peur. C’est la réalité d’un monde où le numérique est devenu un levier de puissance.


1️⃣Objectiver : la souveraineté n’est pas un slogan, c’est une réduction de fragilité

J’accuse notre erreur collective : avoir confondu “être équipés” avec “être maîtres”.

Et surtout, avoir cru que la souveraineté numérique était un débat idéologique, alors qu’elle est un sujet d’ingénierie nationale :

  • dépendances critiques (technologies, plateformes, licences, support)
  • captivité des données et des formats
  • temps de rétablissement trop longs en cas de crise
  • fragmentation (silos, incohérences, doublons)
  • perte d’autonomie (compétences et capacité de bascule)

Soyons clairs : la souveraineté ne signifie pas “tout refaire”, ni “se fermer au monde”. La souveraineté signifie : ne pas être pris en otage.


2️⃣ Ligne rouge : l’excellence opérationnelle n’est pas négociable

On ne gagnera pas en souveraineté en perdant en efficacité.

Si le chemin vers la souveraineté produit :

  • des services plus lents,
  • des systèmes moins robustes,
  • des usages plus compliqués,
  • ou des coûts hors de contrôle…

alors il sera rejeté. Par les agents. Par les entreprises. Par les territoires. Par les citoyens.

Donc le contrat est simple :

Chaque pas vers la souveraineté doit augmenter la résilience sans dégrader l’excellence.

Et s’il faut arbitrer, il faut le faire sans mentir :

  • on mesure,
  • on anticipe les conséquences,
  • on documente les risques,
  • et on suit l’exécution dans la durée.

3️⃣Sans leadership politique : pas de souveraineté

La souveraineté numérique est un sujet politique au sens noble. Parce qu’il faut assumer : les choix, la durée, les investissements, les transitions.

Et surtout, parce que le numérique ne se reconstruit pas à chaque alternance.

Chaque “virage”, chaque “réorientation”, chaque louvoiement… se paie comptant :

Un louvoiement politique = des années perdues.

La stratégie doit être vivante (mise à jour régulièrement), mais le cap doit être stable (la destination ne change pas).


4️⃣ Une idée clé : dépendre n’est pas un crime… subir l’est

Dans le monde réel, tout le monde dépend de quelqu’un. La question n’est pas : “dépendance ou pas dépendance”.

La vraie question est :

Cette dépendance est-elle subie… ou choisie ?

Et surtout :

Est-elle mesurée, assumée, et réversible ?

Dans certains cas, au début du voyage, il peut être intelligent de conserver une dépendance temporaire parce qu’elle permet :

  • de tenir l’opérationnel sans rupture,
  • de gagner du temps,
  • et de préparer proprement la bascule.

Mais à une condition non négociable : cette dépendance doit être encadrée. On sait à quoi on dépend, ce que ça coûte, ce qu’on risque, comment on sort, et on s’entraîne à sortir.

👉 Une dépendance assumée sans sortie, ce n’est pas une stratégie : c’est un mensonge.

👉 Une dépendance encadrée avec un plan de bascule, c’est du pragmatisme.


Encadré : “dépendance choisie” ou “dépendance subie” ? (méthode en 6 points)

Une dépendance peut être acceptable… si elle est maîtrisée. Pour éviter les débats idéologiques, voici une grille simple, opposable, et actionnable.

① Criticité opérationnelle

Si cette dépendance tombe, qu’est-ce qui s’arrête ?

➡️ inconfort / dégradation / interruption majeure / arrêt vital

② Contrôle réel (pas contractuel)

Qui maîtrise le fonctionnement au quotidien ?

➡️ si personne ne sait opérer / diagnostiquer / restaurer : captivité

③ Coût et délai de sortie

Combien de temps, d’argent et d’effort pour basculer ?

➡️ si l’exit est “théorique” ou “trop cher pour être vrai”, c’est subi

④ Risque stratégique

Cette dépendance peut-elle devenir une pression politique, juridique ou économique ?

➡️ on regarde le pire jour, pas le meilleur

⑤ Réversibilité et exercice

Avons-nous un plan de bascule testé ?

➡️ pas “un plan”, une bascule réellement exercée

⑥ Alternatives crédibles (pas parfaites)

Existe-t-il une alternative opérable, même imparfaite ?

➡️ la souveraineté n’exige pas la perfection, elle exige une continuité

Règle de décision :

  • ✅ acceptable si mesurée + encadrée + réversible + exercée
  • ⚠️ temporaire si utile pour gagner du temps, avec plan de sortie daté
  • ❌ inacceptable si critique, non maîtrisée, sans alternative, sans bascule testée

Ce n’est pas la dépendance qui est honteuse : c’est la dépendance non mesurée, non assumée… et sans sortie.


5️⃣ Le mensonge destructeur : le “Big Bang” de la souveraineté

Le rêve d’un “Big Bang” souverain — brutal, total, soudain — est un mensonge destructeur.

Parce que le numérique n’est pas un objet isolé. C’est un système vivant, imbriqué, dépendant.

Changer “une brique” peut provoquer des effets en cascade : sur la sécurité, les usages, les coûts, les délais, la performance… et parfois la continuité des services.

Donc non : on ne “switch” pas un pays en souveraineté comme on change un logo.

Ce qu’il faut, c’est une vision systémique, et une discipline de réalité :

Avant de bouger une pièce, on passe au crible les dépendances de la manœuvre.


6️⃣ L’œuvre commune : chasser en meute

La France a un défaut : l’individualisme. Le “moi je”, le “mon périmètre”, le “mon outil”.

Mais notre force, c’est l’œuvre commune. Quand nous décidons qu’un objectif est vital, nous savons produire du réel.

Nous l’avons fait pour la dissuasion : pas un slogan… une capacité durable, industrielle, scientifique, opérationnelle.

Le numérique exige désormais la même maturité : moins de chapelles, plus de meute. moins de théâtre, plus de preuves.


7️⃣ La souveraineté se prouve au quotidien (citoyens, territoires, entreprises)

— Du concept à la vie réelle

La souveraineté numérique n’est pas un débat d’experts : elle se voit le jour où le quotidien se grippe. Quand une mairie n’émet plus d’actes, quand une PME ne facture plus, quand un citoyen se fait piéger par une arnaque industrielle, on ne parle plus “numérique” : on parle de continuité, de confiance et de cohésion. C’est pour cela qu’il faut sortir des mots et entrer dans des exemples concrets : la souveraineté se mesure au réel, pas à l’intention.

— Une souveraineté à plusieurs étages

On ne construit pas la résilience d’un pays par le sommet uniquement : elle doit exister du citoyen jusqu’à l’État. Un État performant ne compense pas indéfiniment des citoyens vulnérables, des collectivités fragiles et des entreprises captives. La souveraineté est systémique : chaque maillon compte, et la fragilité d’un seul peut contaminer les autres. C’est pourquoi le plan doit traiter en même temps l’école, les territoires, l’économie et le régalien.

— La preuve par l’exécution

Pour distinguer les slogans des capacités, il n’y a qu’un test : quand ça casse, est-ce qu’on repart vite ? La plupart des débats restent théoriques car on évite la seule question qui compte : la vitesse de rebond. Ce n’est ni honteux ni idéologique : c’est mesurable. Et c’est même un facteur d’unité nationale, car il oblige à sortir du “chacun pour soi” pour entrer dans la logique de meute : apprendre, mutualiser, tester, corriger, progresser.


Résilience du citoyen : ce n’est pas “technique”, c’est civique

— L’arnaque “banque / impôts / colis” Ce n’est pas un incident individuel : c’est une attaque industrielle sur la société. Ce qui change tout, ce n’est pas une loi : c’est une hygiène simple, enseignée partout : vérifier avant d’agir, ne jamais donner ses codes “dans l’urgence”, protéger son identité numérique.

— La désinformation qui fissure le pays Avant de casser nos systèmes, certains cherchent à casser notre cohésion. La souveraineté, c’est aussi apprendre à douter intelligemment : vérifier avant de partager, reconnaître les manipulations émotionnelles, résister à l’indignation automatique.


Résilience des collectivités : la République se vit dans les mairies

— Une mairie paralysée, c’est un pays qui ralentit Quand une collectivité tombe, ce n’est pas “l’informatique” : c’est l’état civil, les inscriptions, les paiements, l’école, les services. La souveraineté locale commence par un minimum vital : capacité à redémarrer vite, procédures de secours, entraide inter-collectivités.

— Le piège des outils “faciles” La simplicité immédiate peut devenir une captivité durable. Le sujet n’est pas de bannir dans la panique : le sujet est d’avoir une trajectoire mesurée et un plan de sortie préparé.


Résilience des entreprises : la souveraineté sans économie est un slogan

— Une PME stoppée par une dépendance unique Une entreprise peut être performante… et pourtant fragile : une plateforme, un fournisseur, un service critique… et tout s’arrête. La souveraineté, ici, c’est la continuité : identifier le point unique de rupture et prévoir comment tenir quand “ça casse”.

— Le faux confort : “ça marche donc on ne touche plus” La dépendance s’accumule silencieusement jusqu’au jour où elle explose. Une entreprise résiliente se pose régulièrement une question simple : “si demain ça tombe, qu’est-ce qu’on fait ?” — puis elle teste la réponse.


Ces exemples ne sont pas des anecdotes : ce sont des symptômes mesurables de notre niveau de résilience. Et c’est précisément à partir d’eux qu’on peut construire une trajectoire pragmatique, graduelle, sans “Big Bang” — mais avec du cap, des preuves et de l’exécution.


8️⃣ Le “comment” : un plan pragmatique (court / moyen / long terme)

Horizon 1 — 0 à 18 mois : reprendre le contrôle (sans casser l’opérationnel)

A. Classer ce qui doit être souverain (et ce qui peut rester “standard”)

  • régalien / vital
  • critique
  • commodité

➡️ Tout ne doit pas être souverain. Mais le régalien et le vital doivent être maîtrisés.

B. Mettre des fondations simples, opposables, partout

  • identité et accès sécurisés
  • sauvegardes et restaurations testées
  • continuité d’activité
  • hygiène numérique minimale

C. Exiger la réversibilité réelle

Si on ne peut pas basculer, on n’a pas un service : on a une dépendance.

D. Créer des équipes de livraison (DOers)

Les comités ne livrent pas. Les équipes mandatées, oui.

C’est ici que les MHackers deviennent essentiels : ils réduisent la distance entre décision et exécution.


Horizon 2 — 18 à 36 mois : industrialiser… et décider plus vite que la crise

E. Mutualiser et “chasser en meute”

Des capacités communes, de l’entraide structurée, une réponse collective.

F. Commande publique : passer en “mode urgence nationale” (et l’assumer)

Aujourd’hui, nous achetons trop souvent des procédures. Pas des capacités.

Quand l’urgence commande, l’État doit pouvoir choisir directement des champions nationaux.

Avec des critères durs : maturité prouvée, excellence opérationnelle, livrables immédiats, périmètre régalien, capacité à durer, réversibilité. Et une règle simple : si ça ne tient pas, on arrête.

Car décider vite n’excuse pas de mal décider. Mais dans certains domaines, ne pas décider vite, c’est déjà perdre.


🚨 MAIS : Urgence nationale ≠ passe-droit 🚨

On va me répondre : “choisir des champions sans appel d’offres, c’est dangereux”. Je suis d’accord… si c’est fait sans garde-fous. Mais l’urgence stratégique impose une vérité simple : la lenteur devient un risque national.

👉 Donc oui, il faut pouvoir décider vite — et l’assumer politiquement. Mais avec des règles claires, opposables, contrôlables :

  • Transparence sur le “pourquoi” : justification écrite, publiée, auditable (urgence + intérêt vital).
  • Critères durs : maturité prouvée, excellence opérationnelle, livrables immédiats, maintien dans la durée, réversibilité.
  • Contrats “à preuve” : jalons courts, objectifs mesurables, pénalités réelles, et une règle : si ça ne tient pas, on arrête.
  • Clause anti-captivité : portabilité des données, formats ouverts quand possible, plan de sortie testé.
  • Gouvernance indépendante : revues régulières, contrôle externe, prévention des conflits d’intérêts.
  • Clause d’extinction : le régime d’exception n’est pas permanent — il s’éteint quand la capacité est stabilisée.

Ce n’est pas un abandon de l’État de droit. C’est la reconnaissance que, dans le régalien, la première obligation de l’État… c’est la continuité.


G. Open Source : une solution puissante… mais pas une religion

Oui : l’Open Source est une solution. Souvent excellente. Souvent structurante.

Mais ce n’est pas LA solution.

Les spécialistes le savent : une partie majeure de l’Open Source est financée, industrialisée, orientée. Et l’Open Source est comme le reste : perméable aux attaques, aux dépendances invisibles, aux manipulations de chaîne d’approvisionnement.

Donc soyons lucides :

L’Open Source n’achète pas la souveraineté. Il peut la permettre… si on l’opère.

Choisir des projets maintenus. Financer ce qu’on utilise. Maîtriser les dépendances. Maintenir dans le temps. Prévoir la relève.

Sinon, on remplace une dépendance bruyante… par une dépendance silencieuse.

H. Sortir progressivement des captivités les plus dangereuses

Sortir d’une captivité numérique, ce n’est pas “changer d’outil”. C’est réorganiser un système sans casser le service.

Et c’est précisément pour cela qu’il faut être méthodique : identifier ce qui est vital, cartographier les dépendances, puis découper la bascule en étapes.

La pire erreur serait de vouloir “tout remplacer” d’un coup : on provoquerait des effets en cascade, on perdrait l’adhésion des utilisateurs, et l’opérationnel en paierait le prix.

La seule trajectoire sérieuse, c’est celle qui combine coexistence temporaire, réversibilité réelle, et tests réguliers.

On garde parfois une dépendance pour tenir le tempo, mais on prépare la sortie sans délai.

Et surtout : on ne remplace pas une captivité visible par une captivité silencieuse.

La règle doit être simple : chaque migration doit apporter moins de risque, plus de maîtrise, et une capacité de bascule prouvée.


Horizon 3 — 3 à 10 ans : autonomie stratégique et culture nationale

I. Éducation : souveraineté = compétence nationale

La souveraineté numérique commence à un endroit inattendu : dans la salle de classe.

Non pas pour former une nation de programmeurs, mais pour former une nation de citoyens capables de comprendre le monde numérique dans lequel ils vivent.

Aujourd’hui, l’insécurité numérique n’est pas seulement technique : elle est cognitive, sociale, parfois émotionnelle.

Être souverain, c’est savoir protéger son identité, repérer une manipulation, éviter de se faire piéger par “l’urgence” et la peur, comprendre ce qu’est une donnée et ce qu’on en fait.

Il faut donc un socle commun : hygiène numérique, esprit critique, culture de l’information, et compréhension minimale des mécanismes de l’IA.

Sans cela, on bâtira des infrastructures sophistiquées sur une population vulnérable.

Et une démocratie vulnérable, même très équipée, reste fragile. La souveraineté n’est pas un produit : c’est une culture.

J. Filières et talents

On ne gagne pas en souveraineté avec des slogans, on la gagne avec des capacités durables.

Cela implique des compétences, des filières, des industriels, de la recherche, et un État qui sait investir dans le long terme.

Un pays qui dépend entièrement d’outils qu’il ne maîtrise pas, et de compétences qu’il ne forme pas, se condamne à l’impuissance stratégique.

Il faut donc traiter certaines briques comme des infrastructures de puissance : cybersécurité, cloud, données, composants, IA, et capacité de calcul.

Pas pour “tout nationaliser”, mais pour garantir que, le jour où le contexte se durcit, nous avons une option crédible.

Cela passe par des parcours attractifs, une valorisation des métiers, des passerelles public/privé, et une stratégie industrielle cohérente.

Et surtout : il faut arrêter de confondre “innovation” et “annonce”.

Une filière se construit, se maintient, et se finance dans la durée. Sans cela, la souveraineté reste un mot.


9️⃣ Mesurer, publier, corriger : stratégie vivante, cap stable (et petite victoires)

Une souveraineté numérique sans mesure, c’est une opinion.

Et une stratégie sans publication, c’est une promesse.

Donc si nous voulons sortir du théâtre, il faut un principe simple : tout ce qui compte se mesure.

Pas pour “faire des chiffres”, mais pour piloter, arbitrer et rendre des comptes.

La souveraineté est un chemin : elle doit donc avoir un tableau de bord lisible, compris par les décideurs comme par les opérateurs.

On doit pouvoir dire, sans détour, combien de services critiques disposent d’une bascule testée, combien de temps on met à redémarrer, quelles dépendances restent subies, et lesquelles sont encadrées avec une sortie datée.

Publier ces indicateurs, ce n’est pas s’exposer : c’est créer de la confiance, et forcer la réalité à entrer dans la boucle politique.

Ensuite, corriger : pas une fois par an, mais régulièrement, au rythme des retours terrain et des crises.

Et surtout, il faut comprendre une chose : on ne gagne pas une souveraineté “en une réforme”, on la gagne par une accumulation de petites victoires.

Une bascule exercée. Une restauration réussie. Une dépendance critique mieux maîtrisée. Un service vital redémarré plus vite.

Ces progrès concrets donnent de l’adhésion, construisent une culture, et prouvent que l’effort produit du réel.

Mais attention : corriger la trajectoire ne veut pas dire changer de destination.

Mettre à jour la carte n’autorise pas à bouger le cap.

La souveraineté exige donc une discipline rare : constance, transparence, et courage — avec une règle finale : la preuve prime sur la promesse.


Pour conclure : moins de discours, plus de preuves et de courage politique

La souveraineté numérique, c’est le droit de continuer. Le droit de décider. Le droit de ne pas être captif.

Elle ne se gagnera pas avec des slogans, ni avec la promesse d’un “Big Bang” magique. Elle se gagnera par étapes, avec une vision systémique, une dépendance maîtrisée quand il le faut… et une sortie préparée quand il le faut.

Moins de louvoiements. Moins de théâtre. Plus de réel.

Sommes-nous prêts à assumer l’urgence… sans jamais sacrifier l’excellence ?

#SouveraineteNumerique #Resilience #Leadership #Execution #Strategie

Pourquoi les organisations ont besoin de MHackers

Pourquoi les organisations ont besoin de MHackers

(et pourquoi ce n’est ni un “geek”, ni un “bricoleur”, ni un “pirate”)

On parle beaucoup de stratégie. On parle beaucoup de transformation. On parle beaucoup d’IA, de résilience, de souveraineté numérique, de vitesse d’exécution.

Mais entre “on veut” et “c’est fait”, il y a un gouffre. Ce gouffre s’appelle l’exécution.

Pas l’exécution administrative. L’exécution créatrice : celle qui transforme une intention stratégique en une capacité réelle, opérationnelle, maîtrisée.

C’est là qu’émerge un profil que les organisations cherchent… sans toujours savoir le nommer.

👉 Le MHacker.


1️⃣Le Hacker : l’art de comprendre, détourner, améliorer — et construire

Le mot “hacker” a été abîmé par le langage courant. Dans l’imaginaire collectif, “hacker” = piratage. Dans la culture historique, c’est presque l’inverse.

Dans The Cathedral and the Bazaar, Eric S. Raymond rappelle une distinction essentielle : les hackers sont des bâtisseurs, pas des casseurs. Raymond_Eric_S_The_Cathedral_an…

Et il insiste sur un point clé : être hacker ne se résume pas à une compétence technique. C’est une culture — celle des gens qui aiment comprendre les systèmes en profondeur, trouver des solutions astucieuses, et produire quelque chose qui fonctionne. Raymond_Eric_S_The_Cathedral_an…

Le hacker, au sens noble, c’est celui qui :

  • comprend ce qui se passe “sous le capot”
  • sait détourner intelligemment un outil, un processus ou une contrainte pour atteindre l’objectif
  • a une obsession de l’impact utile (pas du show)
  • privilégie l’élégance, la robustesse, et la simplicité qui marche

👉 Dans une organisation, le hacker est celui qui voit les dépendances invisibles : risques, effets domino, fragilités, leviers rapides.

C’est aussi, souvent, celui qui apporte un réalisme salutaire : “On peut le faire… mais voilà ce que ça coûte.” “On peut aller vite… mais voilà ce que ça expose.” “On peut scaler… mais pas si on casse l’existant.”


2️⃣ Le Maker : l’apprentissage par la preuve, le prototype, le réel

Le maker vient d’une autre école : celle du faire.

La “maker culture” est souvent décrite comme une extension technologique du DIY (Do It Yourself), à la croisée de la fabrication, du prototypage, de l’électronique, de la robotique et de l’impression 3D — avec un esprit profondément “hands-on”.

Elle valorise explicitement :

  • l’apprentissage par l’action (learning-through-doing)
  • l’expérimentation, l’itération
  • et une logique de partage communautaire (lieux, designs, méthodes)

Le maker, c’est celui qui :

  • transforme une idée en prototype
  • accepte l’imperfection initiale pour avancer
  • apprend plus vite parce qu’il est au contact du réel
  • livre sous contrainte (temps, matériel, budget)

👉 Dans une organisation, le maker est celui qui réduit le débat théorique par une phrase très simple : “On teste.”

Et cette phrase, quand elle est bien utilisée, est un levier stratégique : elle met fin aux débats infinis et fait entrer le collectif dans la dynamique la plus utile… celle de l’apprentissage accéléré.


3️⃣ Le MHacker : le leadership de transformation “sans théâtre”

Et maintenant, on relie les deux.

Un MHacker, c’est un mélange rare et précieux :

penser comme un hacker : compréhension des systèmes, sens du risque, obsession de l’impact utile

agir comme un maker : prototyper, matérialiser, apprendre en faisant, livrer sous contrainte Raymond_Eric_S_The_Cathedral_an…

Mais la valeur du MHacker ne tient pas à “un mix de compétences”. Elle tient à une posture.

Le MHacker transforme sans théâtre.

Le MHacker ne produit pas des slides. Il produit des preuves. Des petites victoires. Des capabilités.

Et c’est précisément ça, le cœur du leadership en transformation :

▶️Réduire la distance entre décision et exécution

Le MHacker sait convertir une ambition stratégique en “quelque chose qui existe”.

Il ne remplace pas la vision. Il l’atterrit.

Une transformation mature, ce n’est pas “une feuille de route”. C’est une chaîne de production du changement :

  • un premier incrément livrable
  • une mesure de succès
  • un mécanisme d’industrialisation
  • une trajectoire de passage à l’échelle

Le MHacker pense déjà en ces termes.

▶️Sécuriser l’autonomie (sans lâcher la gouvernance)

Le MHacker ne prône pas l’anarchie “agile”. Il construit un cadre où l’équipe peut aller vite sans casser le système :

  • objectifs clairs
  • risques assumés
  • limites explicites
  • responsabilité visible

Son talent, ce n’est pas “faire sauter les règles”. C’est distinguer les règles utiles (celles qui protègent) des règles inutiles (celles qui ralentissent sans valeur). Et ensuite, de proposer une route praticable.

▶️Faire émerger des champions internes

Le MHacker n’est pas un héros solitaire. C’est un entraîneur.

Il outille, il transmet, il fait grandir des relais. Il rend la transformation réplicable, donc scalable.

💡 Le MHacker, c’est le manager du réel. Celui qui fait passer une organisation de “on veut” à “c’est fait”.


4️⃣Quand l’IA accélère… le MHacker garantit la direction

On présente souvent l’IA comme un saut technologique. Mais dans les faits, l’IA est surtout un accélérateur.

Accélérateur de rédaction. Accélérateur d’exploration. Accélérateur de production. Accélérateur de décision.

Et c’est justement pour cela que le leadership devient plus important, pas moins.

Dans notre approche “Leadership & IA”, le principe est simple : 👉 l’IA n’est pas un remplaçant, c’est un sparring partner.

Elle augmente la vitesse de réflexion… à condition que l’humain garde :

  • un socle de connaissances (sinon il ne sait pas juger)
  • la responsabilité (sinon il délègue son rôle)
  • l’éthique (sinon il trahit la confiance)
  • et la capacité de décision (sinon il subit)

Le MHacker est précisément le profil qui sait utiliser l’IA sans s’y dissoudre.

Dans ses mains, l’IA devient :

  • un outil pour explorer des scénarios plus vite (hypothèses, architectures, options)
  • un moyen de challenger une solution (contre-exemples, risques, angles morts)
  • un accélérateur de documentation / communication
  • mais jamais une délégation de l’expertise ni de la responsabilité

➡️ L’IA booste la vitesse. Le MHacker garantit la cohérence, la preuve, et la tenue dans le réel.


Mini-méthode : repérer et cultiver des MHackers dans une organisation

Le MHacker n’est pas un “profil standard RH”. C’est un signal faible que l’on apprend à reconnaître et à développer.

✅Comment repérer un MHacker (5 signaux concrets)

➡️Il parle “système”, pas “outil”

Il comprend les dépendances, les interfaces, les compromis.

➡️Il adore les contraintes

Il ne se plaint pas de la friction : il l’utilise comme guide de design.

➡️Il fabrique des preuves

Il ramène un prototype, un test, un résultat mesurable.

➡️Il partage et outille

Il ne garde pas la solution pour lui : il la rend transmissible.

➡️Il est responsable dans le risque

Il “hacke” de manière constructive : pas de chaos, pas de dette cachée.


✅✅Comment tester un MHacker (3 exercices simples)

Exercice 1 — “48h Proof”

Donne un objectif flou + une contrainte forte. Tu demandes une sortie : preuve + risques + next step (pas un PowerPoint).

➡️MHacker = revient avec un POC / un test / un prototype + une lecture risque.

Exercice 2 — “De la décision à l’exécution”

Tu donnes une phrase stratégique : “On veut X”. Il doit produire :

  • le premier incrément livrable
  • la mesure de succès
  • la condition de passage à l’échelle

➡️MHacker = découpe vite, rend actionnable, matérialise.

Exercice 3 — “IA comme sparring partner”

Tu observes sa manière d’utiliser l’IA :

  • pose-t-il de bonnes questions ?
  • vérifie-t-il ?
  • garde-t-il la responsabilité ?
  • transforme-t-il la réponse en artefact réel ?

➡️MHacker = l’IA accélère… mais ne remplace pas.


✅✅✅ Comment cultiver des MHackers (sans les étouffer)

➡️Créer un “terrain de jeu” gouverné

Un petit budget, du temps, un périmètre clair. Objectif : faire sortir des preuves, pas des promesses.

➡️Récompenser la preuve, pas le storytelling

Si ta culture récompense surtout “bien présenter”, tu tues les MHackers.

➡️Structurer les interfaces, pas l’innovation

Gouverner les règles d’intégration, la sécurité, les critères d’impact — et laisser les équipes inventer le reste.

➡️Former des champions, pas des exécutants

Le MHacker tire l’organisation vers le haut : il faut lui donner le droit de transmettre et d’entraîner.


Conclusion : et si le MHacker était le leader ?

Et si le MHacker n’était pas seulement un profil à repérer dans une organisation… mais le leader qu’elle devrait promouvoir ?

Parce que la transformation n’échoue presque jamais par manque de vision. Elle échoue par manque de traction.

Or le MHacker incarne exactement cette traction stratégique :

  • il comprend les systèmes (donc il décide mieux)
  • il assume le risque (donc il tranche plus vite)
  • il produit des preuves (donc il crédibilise la stratégie)
  • il construit des capabilités (donc il rend l’organisation plus autonome)
  • il fait émerger des champions (donc il scale la transformation)

Le MHacker n’est pas un “chef qui supervise”. C’est un leader qui crée les conditions de la réussite et qui montre le chemin par l’exécution.

C’est une posture de leadership très moderne :

  • moins de théâtre, plus de réel
  • moins de contrôle, plus de cadre + autonomie
  • moins de promesses, plus de preuves

Et dans un monde où l’IA accélère tout, cette posture devient encore plus centrale. Car l’IA ne remplace pas le leadership : elle amplifie ce qui existe déjà.

Le MHacker-leader utilise l’IA comme un sparring partner : pour explorer plus vite, challenger les hypothèses, réduire les angles morts… tout en gardant l’humain au centre : jugement, responsabilité, éthique.

💡 Au fond, le MHacker-leader n’est pas “anti-corporate”. Il est anti-illusion.

Il ne dirige pas une transformation comme un projet. Il la dirige comme une capacité à construire, à apprendre, et à livrer.

Et c’est peut-être ça le signal des organisations qui gagnent : elles ne cherchent plus seulement des “visionnaires”. Elles promeuvent des leaders du réel.

MHacker = Strategy-to-Delivery Leader.

L’intelligence artificielle en organisation : un enjeu de leadership, de compétences et de gouvernance cognitive

Pourquoi l’IA ne rend pas “idiot” — mais pourquoi un mauvais usage peut affaiblir l’intelligence collective

L’intelligence artificielle (IA), notamment sous sa forme générative, est devenue en un temps très court un outil de production intellectuelle puissant. Cette diffusion rapide alimente deux narratifs opposés : l’enthousiasme (promesse de gains considérables de productivité) et l’inquiétude (peur d’une substitution de l’humain et d’une perte de contrôle).

Pourtant, une approche plus rigoureuse conduit à reformuler le problème. L’IA n’a pas vocation à rendre “idiot” par nature. Elle ne possède ni intention, ni volonté, ni stratégie. En revanche, l’usage que nous en faisons peut renforcer nos compétences… ou les fragiliser.

Autrement dit, le cœur du sujet n’est pas la technologie elle-même, mais ce qu’elle transforme dans une organisation : la manière dont on apprend, dont on raisonne, dont on vérifie et dont on décide. Dès lors, l’IA relève moins d’un débat “outil” que d’une question de leadership et de management du capital cognitif.


1. Le principe structurant : l’organisation pense d’abord par ses humains

Une organisation n’est pas “intelligente” parce qu’elle dispose d’outils performants. Elle l’est parce qu’elle mobilise durablement des capacités humaines qui constituent son capital immatériel :

  • la connaissance (savoirs structurés, savoir-faire, compréhension des fondamentaux)
  • l’expérience (maîtrise du contexte, mémoire des contraintes et des conséquences)
  • l’esprit critique (capacité à évaluer, comparer, douter, vérifier)
  • l’innovation (exploration d’options, créativité, recombinaisons pertinentes)
  • l’authenticité (capacité à engager, incarner, fédérer)
  • la diversité (richesse des points de vue, correction des angles morts)

L’IA peut contribuer à amplifier ce capital. Elle peut accélérer la production, améliorer la mise en forme, élargir l’exploration. Mais elle ne peut ni remplacer l’expérience, ni assumer la responsabilité, ni garantir le discernement. C’est pourquoi l’IA doit être considérée comme un amplificateur : elle renforce les organisations solides, et peut tout autant amplifier les fragilités d’un collectif insuffisamment outillé.


2. Une condition préalable : on n’utilise pas l’IA sans fondations

La pertinence de l’usage de l’IA dépend d’un prérequis trop souvent implicite : pour tirer parti de l’IA, il faut déjà disposer d’un socle cognitif minimal.

Ce socle est principalement formé par l’éducation et l’apprentissage de base :

  • compréhension du langage et précision lexicale
  • structuration d’arguments et raisonnement
  • distinction faits / hypothèses / interprétations
  • méthode, logique, rigueur
  • premières compétences disciplinaires (métier, technique, juridique, etc.)

Sans ce socle, l’IA peut produire des résultats “propres” en apparence, mais l’utilisateur n’est pas en mesure de vérifier, de contextualiser, ni de défendre. Le risque n’est pas que l’IA “rende idiot”, mais qu’elle devienne un substitut d’effort, conduisant à une dépendance progressive et à une fragilisation de l’autonomie intellectuelle.


3. Le risque managérial : confondre performance immédiate et capacité durable

L’IA offre un gain de temps réel. Toutefois, un usage passif peut conduire à un paradoxe organisationnel : l’augmentation des livrables n’implique pas nécessairement l’augmentation de la compétence.

On peut produire plus vite tout en :

  • réduisant la profondeur de compréhension,
  • diminuant l’apprentissage par la pratique,
  • limitant l’exercice critique,
  • fragilisant la capacité de décision autonome.

Dans cette logique, la question n’est pas la productivité ponctuelle, mais la capacité durable d’une organisation à apprendre et à s’adapter. Une organisation qui ne renforce plus ses compétences devient mécaniquement plus vulnérable face à l’incertitude, aux ruptures et aux crises.


4. L’illusion centrale : l’IA rendrait automatiquement tout le monde meilleur

L’IA ne rend pas mécaniquement plus compétent. Elle amplifie le niveau réel de l’utilisateur et la maturité du collectif.

  • Chez un profil expert, elle accélère la mise en forme, la recherche d’options, la vérification, l’exploration de scénarios.
  • Chez un profil en construction, elle peut créer une illusion de maîtrise en produisant un résultat sans compréhension des fondamentaux.

La conséquence est managériale : l’IA ne doit pas être déployée comme une simple solution de productivité, mais comme un levier inscrit dans une politique de développement des compétences, de contrôle et d’apprentissage collectif.


5. Leadership et gouvernance : faire de l’IA un levier sans externaliser l’expertise

Le leadership responsable n’a pas pour objectif de freiner l’IA, mais de cadrer son usage afin qu’elle augmente l’intelligence collective plutôt qu’elle ne la fragilise.

Deux dérives sont particulièrement critiques :

5.1. La délégation de la pensée

Lorsque l’IA devient un substitut à l’effort de structuration, de raisonnement ou de vérification, les compétences s’érodent. L’outil n’est pas fautif : c’est l’usage qui installe une dépendance.

5.2. La boîte noire et la dilution de responsabilité

Lorsque les livrables IA sont adoptés sans appropriation, la responsabilité devient floue. Or la performance organisationnelle repose sur la capacité à expliquer, défendre et assumer des décisions.

Le rôle du manager consiste donc à imposer un principe directeur simple :

L’IA doit être un “sparring partner” qui fait progresser, pas un pilote automatique qui remplace.


🔲 Encadré — Pilotage managérial : IA comme sparring partner (règles d’équipe et garde-fous)

Objectif : faire de l’IA un accélérateur de compétences et de décision, sans créer de dépendance ni externaliser l’expertise.

1) Trois usages prioritaires

Clarifier : structurer, reformuler, expliciter les hypothèses ✅ Explorer : options, scénarios, risques, angles morts ✅ S’entraîner : cas pratiques, quiz, simulation de contradicteur 🚫 À éviter : décider à notre place / livrer final sans appropriation.

2) Règle “No Answer First”

Avant l’IA : objectif (1 phrase), hypothèse (1 phrase), contraintes (3 points). 👉 Si l’on ne sait pas le formuler, l’IA risque de penser à notre place.

3) Protocole de sparring

Prompt standard :

“Agis comme un coach exigeant. Ne donne pas la réponse immédiatement. Pose 5 questions structurantes. Propose ensuite 2 pistes. Puis demande-moi d’arbitrer et de justifier.”

4) Accountability : un responsable humain

Tout livrable assisté par IA doit avoir un owner. Pas d’owner = pas de livrable.

5) Vérifiabilité : condition de diffusion

Le livrable doit expliciter : hypothèses, limites, points à vérifier, connaissance interne mobilisée.

6) Différenciation junior/senior

  • Junior : usage guidé + validation sur fondamentaux
  • Senior : usage d’accélération + “signature humaine” (arbitrage, nuance, décision)

7) Rituels d’apprentissage

Revue de prompts (hebdo), analyse d’erreurs (bimensuelle), “red team” (mensuelle).

8) Indicateurs

Qualité de décision, autonomie, robustesse, innovation. Si la vitesse augmente mais que l’autonomie diminue : alerte.

Mantra : l’IA augmente la production ; le management doit augmenter la compétence.


Conclusion : l’IA amplifie, l’humain structure et décide

L’IA n’est pas un facteur d’idiotie. Elle est un facteur d’accélération. Ce qui fragilise une organisation, ce n’est pas l’IA : c’est l’abandon du socle cognitif et de l’esprit critique au profit d’un résultat immédiat.

Le futur distinguera moins ceux qui “utilisent l’IA” de ceux qui ne l’utilisent pas, que ceux qui auront su maintenir et renforcer :

  • l’apprentissage,
  • l’autonomie,
  • la responsabilité,
  • la capacité de jugement.

La question n’est donc pas : faut-il adopter l’IA ? Elle devient :

Comment renforcer les fondamentaux (éducation, savoirs, esprit critique),et instaurer un cadre managérial qui transforme l’IA en levier,sans affaiblir l’autonomie cognitive de l’organisation ?


#Leadership #Management #IntelligenceArtificielle #Apprentissage #PenséeCritique

Task Force, capacité numérique et tempo opérationnel

Manifeste pour livrer sous contrainte

Dans le monde militaire et stratégique, certaines Task Forces marquent une rupture. Task Force MAVEN est devenue une référence presque malicieusement citée : non pas tant pour la technologie employée que pour ce qu’elle a révélé — la capacité d’une organisation à livrer rapidement une capacité utile, sous pression politique, stratégique et opérationnelle.

Il ne s’agit pas ici de copier un modèle. Il s’agit d’en tirer une leçon fondamentale :

le numérique devient décisif lorsqu’il est manœuvré comme une capacité opérationnelle, pas comme un projet.

Ce texte est un manifeste pour cette approche.


1. La Task Force : un acte de commandement, pas une méthode projet

Créer une Task Force n’est pas un choix organisationnel neutre. C’est un acte de leadership.

Une Task Force est constituée non pour explorer, mais pour produire un effet mesurable, sous contraintes :

  • politiques,
  • stratégiques,
  • opérationnelles,
  • industrielles,
  • temporelles.

Elle n’a pas vocation à rassurer. Elle a vocation à agir.

👉 Une Task Force existe parce que l’organisation accepte de dire : « Nous devons livrer avant d’avoir tout stabilisé. »


2. OODA : la philosophie d’action de la Task Force

La Task Force n’est pas agile par méthode. Elle l’est par nécessité.

Sa véritable colonne vertébrale est la boucle OODA :

  • Observer : le terrain, les usages réels, les frictions, les dégradés.
  • Orienter : croiser données, retour opérationnel, intuition des champions.
  • Décider : vite, avec une information suffisante — jamais parfaite.
  • Agir : livrer, mettre en main, provoquer l’usage.

Puis recommencer.

OODA impose un rythme, une discipline, et surtout une capacité à conserver l’initiative face à des organisations plus lentes.


3. Opérations au centre : pas de capacité sans usage réel

Une capacité numérique n’existe pas parce qu’elle est déployée. Elle existe parce qu’elle est employée.

La Task Force :

  • intègre les utilisateurs finaux dès l’origine,
  • teste en conditions réelles ou dégradées,
  • privilégie l’usage à la spécification,
  • accepte que le terrain invalide les hypothèses initiales.

La boucle de retour n’est pas un “feedback de fin de sprint”. C’est un moteur permanent d’adaptation.


4. PMV : la fondation, pas l’aboutissement

La Task Force ne livre pas de POC. Le POC (Proof of Concept) prouve que quelque chose est possible. Cela ne suffit pas.

La Task Force passe par le PMV (Produit Minimum Viable).

Le PMV est l’amorce qui prouve que la solution est :

  • utile,
  • utilisable,
  • utilisée.

Il constitue souvent une première petite victoire, mais surtout la fondation du projet.

⚠️ Le PMV n’est pas l’objectif final. L’objectif de la Task Force est au-delà : livrer une capacité opérationnelle réelle et durable.


5. Champions : les corporate hackers au cœur de la manœuvre

Aucune Task Force ne réussit sans champions.

Pas des experts isolés. Pas des ambassadeurs de méthode.

Mais des corporate hackers loyaux, capables de :

  • comprendre les règles pour savoir quand les contourner,
  • traduire entre opérationnel, décideur et industriel,
  • accélérer sans casser,
  • livrer imparfait mais utile.

Ils sont le liant humain entre vision, décision et action.


6. Communication, petites victoires et transformation : ce que le MIT nous apprend vraiment

La communication d’une Task Force n’est ni un exercice cosmétique, ni un accompagnement de fin de projet. C’est un levier central de transformation, au sens le plus exigeant du terme.

Les travaux du MIT Sloan rappellent une réalité essentielle : la résistance au changement n’est pas un défaut individuel, mais une propriété normale des organisations humaines.

Trois lentilles pour comprendre l’organisation

Le MIT décrit toute organisation à travers trois lentilles indissociables :

  • stratégique / structurelle (processus, rôles, gouvernance),
  • culturelle (habitudes, routines, raccourcis cognitifs),
  • politique (intérêts, arbitrages, rapports de force).

👉 Toute transformation qui ignore l’une de ces dimensions échoue mécaniquement.

👉 Une Task Force efficace les manœuvre simultanément.

La culture comme système de raccourcis

La culture n’est pas une valeur abstraite. C’est un ensemble de raccourcis cognitifs permettant de décider vite dans un environnement complexe.

Ces raccourcis ont été utiles. Ils peuvent devenir des freins.

Une Task Force ne les combat pas frontalement. Elle les court-circuite par l’usage réel.

Les petites victoires comme levier scientifique

Les petites victoires ne sont pas un artifice de communication. Elles sont un mécanisme documenté de transformation, en parfaite cohérence avec :

  • John Kotter (créer de l’élan, réduire les résistances),
  • les recherches MIT CISR sur les transformations numériques réussies.

Chaque petite victoire :

  • rend la transformation concrète,
  • déplace le débat de l’opinion vers l’usage,
  • élargit la coalition de soutien.

Le PMV joue ici un rôle clé : il matérialise l’utilité, l’appropriation et la crédibilité de la démarche.

Sensemaking plutôt que storytelling

La communication d’une Task Force n’est ni du marketing, ni du storytelling. C’est du sensemaking : donner du sens par l’expérience, pas par l’injonction.

La Task Force montre :

  • ce qui fonctionne,
  • ce qui ne fonctionne pas encore,
  • les arbitrages réels.

👉 La transformation ne convainc pas par le discours, mais par l’action observable.


7. Leadership : créer l’espace de la manœuvre

Le leadership ne consiste pas à contrôler la solution. Il consiste à créer l’espace pour livrer.

Cela implique :

  • un mandat explicite,
  • un empowerment réel,
  • un budget mobilisable rapidement,
  • un accès direct au sommet,
  • une tolérance assumée au risque maîtrisé.

Sans soutien visible et constant du haut leadership, aucune Task Force ne tient dans la durée.


8. DORESE et DOTMLPFI : balayer tout le spectre capacitaire

DORESE et DOTMLPFI ne s’opposent pas. Ils décrivent une même réalité capacitaire à travers deux cadres complémentaires :

  • DORESE (France) : Doctrine – Organisation – Ressources humaines – Équipements – Soutien – Entraînement
  • DOTMLPFI (OTAN) : Doctrine – Organization – Training – Materiel – Leadership – Personnel – Facilities – Interoperability

Une Task Force efficace s’attache à brosser l’ensemble des domaines couverts par ces deux grilles, même de façon pragmatique et incrémentale.

Cette attention renforce la vision système, évite les angles morts et prépare la transition vers l’industrialisation, dans un contexte national et multinational.


9. Le chef de la Task Force : chef de manœuvre numérique

Une Task Force ne dépasse jamais le niveau de son chef.

Le chef de Task Force est un chef de manœuvre numérique, doté d’une vision système.

Il articule en permanence :

  • le politique,
  • le stratégique,
  • l’opérationnel,
  • le technologique.

Il est aussi un communicant stratégique. La communication est pour lui un outil de commandement.

Enfin, il est un hacker loyal : fidèle à l’institution, mais résolument orienté effet.


10. Industrialiser : donner à la capacité le droit de durer

Une Task Force n’est pas un fusil à un coup.

Dès les premiers livrables :

  • architecture pensée pour durer,
  • documentation utile,
  • anticipation du passage à l’échelle,
  • implication progressive des industriels.

La Task Force réduit l’incertitude, sécurise les choix, et permet une industrialisation éclairée.


11. Mesurer ce qui compte vraiment

Les indicateurs classiques de projet sont insuffisants.

Une Task Force se mesure par :

  • le temps entre décision et premier usage réel,
  • le taux d’adoption opérationnelle,
  • la qualité des boucles de retour terrain,
  • les décisions réellement soutenues par la capacité,
  • l’effort nécessaire pour passer à l’échelle.

Ces indicateurs mesurent l’efficacité, pas la conformité.


12. Anti-patterns : quand les Task Forces échouent

Les échecs sont rarement techniques. Ils sont presque toujours des échecs d’empowerment et de leadership.

  • Task Force sans mandat réel : responsabilité sans pouvoir.
  • Soutien du sommet verbal mais non traduit en actes.
  • Task Force alibi.
  • POC déguisé.
  • Isolement opérationnel.
  • Sur-méthodologie.
  • Absence de trajectoire post-Task Force.

👉 Une Task Force non empowered est condamnée.


Encadré — Ce que la Task Force révèle de l’organisation

Une Task Force est un miroir.

Elle révèle :

  • la capacité réelle à déléguer,
  • la vitesse de décision effective,
  • la tolérance au risque maîtrisé,
  • la confiance accordée aux opérationnels,
  • la maturité de la relation avec l’industrie.

Conclusion — La Task Force comme épreuve de vérité

Le numérique ne transforme pas les organisations. Il révèle leur capacité à décider, à faire confiance et à agir sous pression.

La Task Force est une épreuve de vérité. Un outil de manœuvre numérique, inscrit dans la boucle OODA, nourri par les enseignements de Kotter et du MIT, capable de livrer vite et de préparer la durée.

Dans un monde instable, ce n’est pas une option méthodologique. C’est un choix stratégique.

C2, innovation et opérations : ce que l’industrie du jeu vidéo peut nous apprendre

Depuis plusieurs mois, mes articles convergent vers une même conviction :

➡️ la transformation du Command & Control (C2) n’est plus un problème de technologie,

➡️ c’est un problème de lisibilité, de charge cognitive et de vitesse de compréhension.

Les industriels de défense savent aujourd’hui faire beaucoup de choses :

  • fusionner des masses de données multi-capteurs,
  • connecter tous les milieux (terre, air, mer, cyber, espace),
  • intégrer de l’IA d’aide à la décision,
  • proposer des architectures robustes et souveraines.

Mais dans la réalité des opérations — postes de commandement, centres de conduite, états-majors projetés — un écart persiste :

➡️ entre la richesse fonctionnelle des systèmes

➡️ et leur appropriation réelle sous stress.

C’est précisément dans cet interstice que l’industrie du jeu vidéo devient intéressante. Non pas comme solution miracle. Mais comme réservoir de méthodes, de patterns UX et de disciplines industrielles déjà éprouvées.

1️⃣ Le vrai verrou du C2 moderne : l’attention humaine

L’état de l’art industriel du C2 sait produire :

  • des corrélations,
  • des recommandations,
  • des visualisations riches.

Mais la décision reste humaine. Et elle est prise :

  • sous contrainte de temps,
  • avec information imparfaite,
  • dans un environnement dégradé,
  • sous pression cognitive élevée.

➡️ Le facteur limitant n’est plus la donnée disponible, mais la capacité à comprendre vite ce qui compte.

Or, cette problématique est au cœur du game design depuis plus de vingt ans.

2️⃣ Le jeu vidéo : pas un modèle doctrinal, mais un laboratoire UX sous contrainte

Le jeu vidéo moderne — notamment dans les jeux de stratégie et de simulation — a industrialisé des réponses à des problèmes très proches du C2 :

  • décider vite,
  • prioriser,
  • gérer l’incertitude,
  • éviter la surcharge cognitive,
  • corriger immédiatement l’erreur.

Des titres comme Command: Modern Operations, Arma 3 ou StarCraft II montrent qu’il est possible :

  • de gérer une complexité extrême,
  • sans jamais l’exposer frontalement à l’utilisateur.

Ce n’est pas du divertissement naïf. C’est de l’ingénierie cognitive appliquée.

3️⃣ Monde industriel défense : convergence réelle, mais encore incomplète

Côté industriel, les signaux sont là :

  • travaux de DARPA sur la visualisation et la collaboration,
  • interfaces orientées décision chez Palantir, Thalès, Sopra
  • usage de moteurs de jeu tels que Unreal Engine dans la simulation, l’entraînement, les jumeaux numériques et la mise en oeuvre d’un Metavers de la préparation opérationnelle
  • montée en puissance du wargaming augmenté et de la planification immersive.

Mais une limite structurelle persiste :

➡️ l’UX/UI est encore trop souvent traitée comme un habillage,

➡️ et trop rarement comme un composant de la performance opérationnelle.

4️⃣ Une réalité opérationnelle : un mauvais UX est une vulnérabilité

Dans un conflit de haute intensité :

  • la saturation informationnelle est une arme,
  • la vitesse d’exécution est critique,
  • la surprise est permanente.

👉 Un C2 mal conçu ergonomiquement ralentit la boucle décisionnelle autant qu’un capteur aveugle.

Ce n’est pas un débat esthétique. C’est un risque opérationnel.

Dans un conflit de haute intensité :

  • la saturation informationnelle est une arme,
  • la vitesse d’exécution est critique,
  • la surprise est permanente.

5️⃣ Mini-cas d’usage multi-domaines

Situation

Niveau opératif, opération synchronisée Air / Terre / Maritime / Cyber / Espace. Tout fonctionne… puis le système se dégrade.

  • Air : détection radar ambiguë
  • Maritime : piste intermittente
  • Cyber : alerte sur réseau logistique
  • Espace : perte partielle ISR
  • Terre : demande urgente de re-routage

Le décideur n’a pas besoin de “plus de données”. Il a besoin de compréhension immédiate.

5️⃣.1️⃣ Alerting — Qu’est-ce qui mérite de casser le rythme ?

Patterns UX utiles :

  • alertes par impact mission, pas par source,
  • escalade progressive,
  • regroupement intelligent multi-domaines,
  • accusé de prise en compte contextualisé.

👉 La meilleure alerte est souvent celle qui n’arrive jamais

5️⃣.2️⃣ Priorisation — Que faire maintenant ?

Patterns UX :

  • “Top 3 actions” visibles en permanence,
  • vue globale stable (qui ne saute pas),
  • affichage du temps avant impact,
  • justification courte du “pourquoi”.

👉 L’interface doit proposer une hiérarchie, pas la demander.

5️⃣.3️⃣ Dégradés — Comment continuer quand ça casse ?

Patterns UX :

  • mode dégradé explicite et assumé,
  • qualité de l’information visible,
  • workflows de repli cohérents,
  • perte de précision sans perte de compréhension.

👉 Un bon C2 est celui qui reste pilotable quand tout va mal.

5️⃣.4️⃣ Confiance IA — Aider sans automatiser la responsabilité

Patterns UX :

  • explication courte et actionnable,
  • contre-hypothèses visibles,
  • seuils de décision contextualisés,
  • traçabilité des recommandations.

👉 L’IA doit éclairer la décision, pas la remplacer.


6️⃣ Ce que devraient faire les industriels dès demain

✅ Trois petites victoires (12–24 mois)

6️⃣.1️⃣ Mettre un pilote UX/facteurs humains dans la gouvernance produit

Avec un vrai pouvoir d’arbitrage.

6️⃣.2️⃣ Créer un sandbox UI inspiré des pipelines jeu vidéo

Prototyper vite, tester sous stress, corriger.

6️⃣.3️⃣ Intégrer des tests de charge cognitive dans la “Definition of Done”

Un C2 non testé sous pression est incomplet.


🚀 Perspective structurante (5–10 ans)

  • Standardiser des conventions UX du C2 (alerting, dégradés, priorités).
  • Passer de logiciels figés à des produits évolutifs.
  • Co-développer avec l’écosystème gaming (UX leads, moteurs, méthodes), dans une logique dual-use assumée.
  • Reconnaître que l’intuitivité est une capacité opérationnelle.

En conclusion

Le jeu vidéo n’est pas “la solution”. Mais il est une source d’inspiration industrielle sérieuse pour un problème central du C2 moderne :

➡️ faire décider un humain vite, bien, sous pression, avec incertitude.

La transformation du C2 ne se gagnera pas uniquement par :

  • la souveraineté,
  • la puissance de calcul,
  • l’empilement technologique.

Elle se gagnera aussi par :

➡️ la clarté, la hiérarchisation et la confiance dans l’interface.

Et sur ce terrain-là,

🎮 le jeu vidéo n’est pas en avance par hasard — il l’est par méthode.

Opérations multidomaine : garder la tête froide entre doctrine, technologie et décision humaine

L’essor des opérations multidomaine s’accompagne d’un discours technologique puissant. À écouter certaines narrations, il suffirait d’accélérer les boucles, de connecter tous les capteurs et d’automatiser la décision pour garantir la supériorité militaire.

Cette vision est séduisante, mais incomplète.

Les MDO ne sont pas d’abord un défi technologique. Elles sont un défi doctrinal et humain, dans lequel la technologie agit comme un amplificateur — pour le meilleur comme pour le pire.

Garder la tête froide face aux promesses du technologisme n’est pas un refus de l’innovation. C’est au contraire une condition pour en faire un levier opérationnel maîtrisé, et non un facteur de rigidité ou de dépendance.

1. MDO, OODA et décision politique : dépasser le mythe de la vitesse

1.1 Ce que les MDO cherchent réellement à optimiser

Beaucoup de discours sur les opérations multidomaine (MDO) les réduisent à une course à la vitesse décisionnelle. Cette lecture est réductrice.

L’objectif réel des MDO n’est pas simplement de décider plus vite, mais de créer un avantage décisionnel durable par :

  • l’intégration interarmées,
  • la coopération inter-agences,
  • l’action en coalition,
  • la synchronisation multi-domaines,
  • et surtout la capacité à continuer à agir sous contestation.

C’est précisément l’esprit de l’approche britannique integration for advantage : l’intégration n’est pas une fin en soi, mais un multiplicateur de liberté d’action.

1.2 OODA : un cadre utile, mais insuffisant s’il est mal interprété

La boucle OODA conserve une réelle valeur pédagogique. Elle rappelle que l’avantage militaire repose autant sur la compréhension que sur l’action.

Mais la réduire à une logique de vitesse (“speed is king”) comporte un risque bien documenté :

  • survalorisation de l’accélération,
  • sous-estimation de la qualité décisionnelle,
  • fragilisation de la coordination homme–machine,
  • perte de robustesse face à l’incertitude et à la tromperie.

Une lecture opérationnelle plus réaliste des MDO conduit à rééquilibrer la boucle :

  • Observe : capteurs multi-domaines, OSINT, partenaires, souvent sous brouillage ou déception
  • Orient : compréhension du contexte, intentions adverses, cadre politico-juridique
  • Decide : arbitrage entre effets, risques, escalade, règles d’engagement, coalition
  • Act : exécution distribuée et replanification continue

Le point dur n’est pas la décision en elle-même.

Il se situe dans l’orientation (donner du sens) et dans la gestion de l’escalade, qui reste fondamentalement politique.

1.3 La décision politique : une boucle que la technologie ne compresse pas

Les MDO touchent presque systématiquement :

  • des effets trans-domaines (cyber, espace, information) à attribution incertaine,
  • des seuils d’escalade volontairement ambigus,
  • des contraintes de coalition et de consensus,
  • des cadres juridiques exigeants (distinction, proportionnalité, responsabilité).

Même si certaines micro-boucles tactiques peuvent être automatisées ou accélérées, la boucle politico-stratégique demeure.

On peut accélérer l’exécution, mais on ne “compresse” ni l’éthique, ni l’escalade, ni la coalition.

2. Le risque de la “doctrine algorithmique”

2.1 Un mécanisme bien identifié

Le risque apparaît lorsque :

  1. une capacité technologique est déployée (IA, fusion de données, combat cloud, DSS),
  2. les TTP s’adaptent progressivement à l’outil,
  3. la doctrine est réécrite pour justifier l’architecture existante.

Dans les programmes C2 à ambition “multi-senseurs / multi-effecteurs”, les modèles de données, interfaces et workflows peuvent alors figer une manière de combattre.

2.2 Effets pervers documentés

Les effets sont désormais bien connus :

  • automation bias : surconfiance dans la recommandation machine,
  • illusion de complétude : “puisque c’est fusionné, c’est vrai”,
  • optimisation locale au détriment de l’objectif stratégique global,
  • fragilité systémique liée à une intégration excessive,
  • rigidification cognitive : on ne voit plus ce que l’outil ne mesure pas.

Le problème n’est pas l’algorithme. C’est l’oubli de ses limites.

2.3 L’antidote : une doctrine testable, pas seulement déclarative

Dire “doctrine first” ne suffit pas. Il faut une doctrine testée :

  • par le wargaming,
  • l’expérimentation,
  • l’entraînement réaliste,
  • la simulation multi-domaines.

Cela suppose :

  • des technologies adaptables,
  • des architectures modulaires,
  • et un commandement qui conserve la maîtrise du sens, des seuils et de l’escalade.

3. Souveraineté doctrinale vs souveraineté technologique

3.1 Deux souverainetés distinctes

  • Souveraineté doctrinale : décider comment on combat (concepts, ROE, tempo, délégation, intégration alliée)
  • Souveraineté technologique : maîtriser avec quoi on combat (systèmes, données, cloud/edge, IA, chaînes logicielles)

Le piège consiste à croire que la seconde garantit automatiquement la première.

3.2 Quand la souveraineté technologique est un atout

Elle est pertinente si elle permet :

  • l’adaptation rapide,
  • la résilience sous déni,
  • l’indépendance de mise à jour,
  • la maîtrise des données,
  • l’auditabilité des systèmes d’aide à la décision.

3.3 Quand elle devient une contrainte

Elle devient problématique lorsqu’elle génère :

  • des retards d’intégration,
  • des solutions non scalables,
  • des verrouillages industriels,
  • des coûts d’opportunité opérationnels.

La souveraineté pertinente n’est pas celle qui protège le catalogue, mais celle qui protège le tempo.

4. Métavers et jumeaux numériques : un levier sous conditions

Contenu de l’article

Les jumeaux numériques et environnements immersifs ne sont pas des gadgets s’ils servent à :

  • tester la doctrine,
  • entraîner les boucles MDO,
  • répéter l’intégration multi-domaines et multinationale,
  • connecter entraînement, doctrine et acquisition.

Sans ce chaînage, ils restent de belles démonstrations sans impact réel.

5. Des “petites victoires” qui comptent vraiment

Sans promettre un système parfait, certaines avancées changent profondément la donne :

  • C2 dégradé by design (continuer à décider sous perte de réseau),
  • donnée minimale commune plutôt que fusion totale,
  • règles explicites de confiance IA,
  • métiers d’orchestration multi-domaines clairement identifiés.

Ces choix sont moins spectaculaires, mais bien plus robustes.

6. La place de l’homme : le point d’équilibre

La machine excelle dans :

  • le tri,
  • la corrélation,
  • la simulation,
  • l’optimisation sous contraintes.

L’homme reste indispensable pour :

  • porter l’intention,
  • arbitrer risque et effets,
  • gérer l’escalade et la coalition,
  • assumer la responsabilité,
  • décider sous tromperie et incertitude.

Le Human–Machine Teaming crédible repose sur :

  • la transparence,
  • la calibration de confiance,
  • l’entraînement,
  • un design centré opérateur.

Conclusion

Les opérations multidomaine ne se résument ni à une rupture technologique, ni à un simple changement d’échelle. Elles traduisent une transformation plus profonde de la manière de concevoir l’action militaire : intégrée, distribuée, contestée et durablement politique.

La technologie y joue un rôle déterminant. Elle élargit le champ des possibles, accélère certaines boucles, renforce la résilience et soutient la coopération entre domaines et partenaires. Mais elle ne définit ni le sens de l’action, ni ses limites, ni sa légitimité.

C’est là que la doctrine et le facteur humain demeurent centraux. La doctrine donne la cohérence, fixe les priorités et encadre l’emploi de la force. L’homme, quant à lui, reste le garant de l’intention, de la responsabilité et de la maîtrise de l’escalade — autant de dimensions que la technologie ne peut ni automatiser ni déléguer sans risque.

Garder la tête froide face aux promesses du technologisme ne signifie pas freiner l’innovation. Cela signifie l’inscrire dans une trajectoire maîtrisée, testée, et pleinement assumée sur les plans opérationnel, politique et éthique.

Une ouverture ?

À mesure que les MDO gagnent en complexité, une question s’impose : comment entraîner des décideurs et des états-majors à raisonner dans des boucles multidomaines, sous incertitude, saturation informationnelle et pression temporelle ?

Sur ce point, le monde du jeu vidéo — souvent perçu comme éloigné des enjeux militaires — offre des enseignements précieux. Les jeux complexes, coopératifs ou compétitifs, entraînent depuis longtemps les joueurs à :

  • gérer simultanément plusieurs niveaux d’information,
  • arbitrer entre vitesse et compréhension,
  • coordonner des actions distribuées,
  • accepter l’incertitude et l’erreur,
  • apprendre par l’expérimentation et l’itération.

Sans transposer naïvement des mécaniques ludiques au combat réel, ces approches ouvrent des pistes sérieuses pour :

  • la formation au raisonnement multidomaine,
  • l’entraînement à la décision sous pression,
  • la compréhension des interactions homme–système,
  • et la préparation des états-majors à des environnements dynamiques et dégradés.

Peut-être que l’une des clés pour maîtriser les opérations multidomaine ne se trouve pas uniquement dans des systèmes toujours plus complexes, mais aussi dans la capacité à apprendre à penser, tester et décider autrement — y compris en s’inspirant de mondes qui ont fait de la complexité, de l’interaction et de l’apprentissage continu leur cœur de métier.