L’intelligence artificielle (IA) pourrait être le nucléaire du XXIe siècle et s’imposer comme la rupture technologique majeure, capable de modifier la guerre de demain. L’IA devient en effet indispensable pour analyser les flux de données générées par l’usage massif des drones et des capteurs, ainsi que pour répondre en temps réel aux besoins tactiques. 

Faisant écho aux réflexions engagées sur les ruptures technologiques dans l’espace abordées dans ces RSMED, Frédéric Coste, maître de recherche stratégique à la FRS a réuni le panel suivant :

Renaud Bellais est docteur en sciences politiques et conseiller institutionnel au sein de MBDA ; Mickael Brossard est Global Head de la Cortex Factory chez Thalès, où il dirige l’entité dédiée à l’intégration des solutions en IA ; Eric Papin est directeur technique de Naval Group.

Mais de quoi parle-t-on ?

Frédéric Coste (FC) : propose en introduction une définition des deux termes.

L’IA, essai de définition

L’IA est un domaine de recherche et un ensemble de techniques qui permettent à l’aide d’un programme informatique à des machines de simuler certains traits de l’intelligence humaine comme le raisonnement et l’apprentissage.

C’est un champ d’application qui est nourri par d’autres disciplines scientifiques (informatique, mathématiques, statistiques) mais aussi par la psychologie cognitive, dont le rôle est de permettre de créer des mécanismes proches des activités mentales humaines. Par exemple dans le domaine de la perception, de la compréhension et de la décision.

Dans les discours journalistiques, on focalise beaucoup sur la question de l’autonomie, mais en réalité les objectifs de l’IA sont bien plus larges : automatisation et résolution de tâches complexes et répétitives ; prédiction de comportements ou d’évolutions.

Que serait alors une « révolution stratégique » ?

Ce que nous dit la science historique

En science historique, la révolution désigne une rupture brutale. La référence pour nous, c’est la révolution de 1789. Mais pour les historiens, la notion de « révolution » apparait en 1649 avec la décapitation du roi Charles Ier d’Angleterre.

Cette période historique implique accélération et violence, avec opposition et remise en cause de l’existant, remplacé par une nouvelle situation radicalement différente de l’ordre passé.

le concept peut s’étaler sur un temps long, comme pour la révolution néolithique. Par contre, dans le cas d’une évolution, les changements n’impactent pas en profondeur l’économie ou la société. 

Et dans le domaine de l’histoire militaire

Selon l’historien militaire britannique Geoffrey Parker, la révolution concerne une mutation des armes des techniques et de l’organisation des armées, avec des conséquences sur l’économie et la société. Ce fut ce qui permit aux Européens de faire la conquête du globe.

Cela implique non seulement une modification de faire la guerre, mais aussi de la penser.

Que peut donc faire la France pour préserver sa souveraineté stratégique ?

Plusieurs questions sont proposées au panel d’intervenants :

  • Derrière l’IA, un champ de recherche et une technologie au service de la défense ?
  • Quels dispositifs d’IA développés par vos groupes transforment le mieux les capacités opérationnelles ?
  • Quels sont selon vous les freins à la mise en oeuvre de l’IA ? Et quelles conséquences ?
  • Quels risques cette technologie fait-elle peser sur notre autonomie stratégique ?
  • L’État et les industriels de La Défense sont-ils préparés à cette rupture technologique ? Le recours aux algorithmes de l’IA, souvent générés par des acteurs privés, pose la question centrale de la prise de décision et des enjeux de souveraineté.

 

L’IA, un champ de recherche et une technologie au service de la défense 

Renaud Bellais (RB) : pour les MDBA on fait de l’IA depuis longtemps, les années 70. Nécessité non seulement de télépiloter des missiles mais de les rendre les plus autonomes pour pénétrer les lieux non permissifs. L’accélération est liée à la révolution de l’art opératif en Ukraine. Ensuite l’économie de guerre suscite des enjeux de production à accélérer. Enfin, 3e dimension, il faut surtout améliorer et valoriser l’usage du missile. L’IA va permettre d’optimiser les réponses. On voit que les Russes cherchent par la multiplication des objets d’attaques à saturer les ressources adverses.

MDBA a développé une start-up Néode, qui conçoit des logiciels permettant l’optimisation de missiles anti-chars comme L’Akéron MP.

Quels dispositifs d’IA transforment le mieux les capacités opérationnelles ?

Mickael Brossard (MB) :  ma formule c’est : « moi, je fais des épices dans un plat ». Je vais y mettre du goût. Je ne suis pas encore au stade de la révolution mais à celui de l’évolution. L’IA, c’est la vitesse. On a une réponse rapide et à peu-près correcte au sens large. Des exemples au niveau de l’amplification des capteurs chez Thalès : pour le Rafale, avec le module de guerre électronique Spectra qui va capter des millions de données. Une IA, en quelques secondes, va trier et mâcher le travail à un opérateur. 

Aujourd’hui l’IA aide les radars à ne pas confondre drones et oiseaux, le pilote étant ainsi concentré sur sa mission centrale à accomplir. On travaille beaucoup sur les essaims de drones. En Ukraine c’était il y a peut une question de semaines l’amélioration de la réponse. Aujourd’hui, l’adaptation se fait en temps réel. La vraie révolution c’est le tempo de la guerre. Mais on n’a pas encore atteint le point d’inflexion. 

Eric Papin (EP) : la révolution est dans la maîtrise de la connaissance. L’IA amène la bonne information au bon endroit et limite les erreurs de procédure. 

Le 1er domaine, c’est ce qui se passe en mer. Les données de déplacement des bateaux étaient en silo et peu exploitées. Or l’IA permet aux équipages de rendre ces données accessibles et de les analyser. En temps réel on fait maintenant dialoguer des systèmes qui ne se parlaient pas, ce qui ajoute une vraie valeur ajoutée. Ça peut être optimiser l’énergie, optimiser les opérations, détecter des signaux faibles, demander un soutien. 

Il nous faut ensuite résister aux nouvelles armes pour lesquels les systèmes de défense n’ont pas été pensés. L’IA va permettre d’optimiser les capteurs. Pour la lutte anti-drones on peut mélanger l’information venant de l’électronique, des radars et discriminer la menace, d’autant qu’il y a une véritable explosion des drones navals en surface (avec communication humaine) ou sous-marins (avec autonomie décisionnelle permettant la gestion de la charge, son retour et l’information qu’ils ont pu glaner). 

À terre les laboratoires (marine nationale, DGA) peuvent élaborer des informations qui vont enrichir les opérations à bord des bateaux. 

Donc révolution sur l’IA générative, le big data et la capacité à traiter des menaces totalement nouvelles. 

Quels sont les freins à la mise en oeuvre de l’IA ? 

EP : le 1er, c’est notre lenteur collective, nous sommes très forts pour les concepts, les produits ; par contre le passage à l’échelle, équiper une flotte de navires opérationnels ne va pas assez vite. D’où vient-elle ? L’accessibilité aux données génère des freins juridiques : les données d’un navire sont légitimement la propriété de l’Etat. Ensuite, les mécanismes par lesquels les industriels peuvent les récupérer et les analyser sont en cours d’amélioration avec le ministère des armées. 

Car sans data, pas d’IA. Le chef d’état-major de la Marine nous a récemment dit : « ce qui m’empêche de dormir, c’est qu’il existe une solution pour améliorer les capacités opérationnelles d’un navire et qu’elle ne soit pas instantanément à bord. »

2e frein : si solution, il faut qu’elle soit mise à bord. On passe trop des temps à la mise en place de procédure. Laissons les marins faire. 

RB : il y a aussi des résistances sociologiques car on transforme les armées ! Car nous avons des missions de défense qui doivent être maintenues. La transition est donc compliquée à gérer. Ainsi des Ukrainiens qui n’ont pas le choix. En matière de données, difficile de se comparer aux Gafam qui eux agissent dans un environnement paramétré et vectoriel identifié. Alors qu’en guerre l’incertitude est immense et les données beaucoup moins nombreuses. Pensons à la différence entre une voiture autonome paramétrée pour son environnement et un robot terrestre dans un environnement inconnu. Enfin c’est la mission qui définit les moyens techniques et non l’inverse. 

MB : la vitesse d’apprentissage est le mot-clé. Regardons à quelle vitesse les gens apprennent puis utilisent. « Le coût d’une transformation technologique c’est 1, celle d’un humain, c’est 10, et celle d’une société, c’est 100 ».                                                                                                       

EP : nous sommes sur des produits à temps long. Pour accélérer ? Extraire des données là où elles sont. Or les données anciennes sont propriétaires. En Mer Rouge, où le risque de se prendre un missile est réel, les bateaux ont un système de bac à sable dans lequel les données sont analysées sans perturber les systèmes de combat existants. On requalifie des morceaux sans requalifier le tout. 

FC : depuis 20 ans des politiques publiques d’Etat visaient à gérer la lenteur. La France parle des souveraineté technologique dans le domaine de l’IA et dans l’IA de défense et même au niveau européen. Une partie de ces documents visent à gérer les freins dont vous avez parlé. 

Renforcer l’autonomie stratégique française et européenne ?

EP : avant de dire ce qu’on pourrait faire, dire qu’on a déjà fait beaucoup ! 

RB : on parle de souveraineté mais la question c’est le risque est d’avoir des outils dont on ne maîtrise pas les sources et éviter d’avoir des boites noires. Le poids des investissements américains ou chinois brouille l’info. Or il ne s’agit pas uniquement d’investissements militaires. On est capable d’optimiser ce sur quoi on travaille (IA et Puces) même si on en fabrique peu. Il faut aussi définir les seuils critiques d’investissements qu’il ne faut pas atteindre. Ceci avec nos partenaires européens. 

MB : France et Europe doivent être alignés. La France a une grande expertise, sait sur l’IA, l’ingénierie des systèmes complexes réunir les start-up, les cercles académiques, l’industrie de l’armement et l’Etat. L’Allemagne bouge très vite. 

EP : l’équipe de France doit jouer dans le même camp et œuvrer ensemble (les industriels, les agences d’Etat, les PME innovantes).Il faut mettre de l’IA partout et accepter la mutualisation des systèmes et le partage des données, entre nous et à fortiori en Europe, avec nos partenaires.  

FC : quid des initiatives éthiques et régulantes internationales ? On voit bien aussi la volonté de certains États (Chine, Etats-Unis Japon) d’imposer leurs normes et standards techniques. Y participez-vous en tant qu’industriels ? Comment comprenez-vous cette compétition ? 

RB : sur les systèmes autonomes létaux, la difficulté est qu’on est en évolution et pas en maturité des technologies et que ça rentre en compétition avec le droit humanitaire international. Les contours juridiques sont donc assez flous pour permettre une flexibilité d’usage. Il faut bien avoir en tête que l’on cherche un effet militaire pour obtenir un effet politique. La meilleure bombe n’est pas la plus grosse. Le combattant doit être en confiance avec son matériel. 

EP : sur un domaine à peine émergent, ne nous pressons pas trop pour encadrer et mettre des limites. Je crois beaucoup à l’hybridation des technologies. On sait de puis longtemps en mer choisir les technos en fonction des conséquences. On sait faire avec les bons outils dans d’autres domaines. Ne pas s’interdire de faire. 

MB : Nous avons une charte éthique de l’IA chez Thalès. On est passé de l’humain in the loop à l’humain over the loop, car l’IA, c’est du logiciel, c’est vulnérable, ça peut se leurrer, être polluée. Il y a des questions de frugalité environnementale et comptable. Des valeurs morales qui ne sont pas au détriment de la performance létale. 

Questions du public

Q1 : qu’attend Naval Group pour alimenter les serveurs de combat au profit d’IA embraquées ?

EP : les données peuvent être encore au format propriétaire. Les bateaux que l’on utilise aujourd’hui n’étaient pas à l’ère du « data centré ». Il faut donc des connecteurs qui évoluent en permanence. La question est bien posée car elle nous interpelle ! L’assemblée doit être consciente que ce que nous avons sur les écrans représente actuellement environ 5% des données générées par les systèmes électroniques des navires. Faut-il envoyer au serveur 100% des données de tous les systèmes ? Ou bien discriminer en fonction des besoins tactiques du moment ? La vraie vie d’un système opérationnel se passe aussi par des recalibrages à l’arrêt. 

RB : ça ne servirait à rien de saturer les systèmes de données et l’énergie disponible. 

 

Q2 : le développement de l’IA pourrait-elle être ralentie avec des normes écologiques ?

RB : les LLM développés par les GAFAM ? On est dans une folie énergétique, avec des réouvertures de centrales nucléaires pour la consommation de leurs data centers. Les normes environnementales sont inévitables y compris pour les armées. Nous avons à anticiper stratégiquement les modèles pour plus de sobriété. On doit s’appliquer aussi des contraintes de temps : qu’est-ce qui sera opérationnel dans 10-20 ans ? Aura-t-on encore l’énergie pour faire tourner ces modèles énergivores ?

Pouvoirs, innovations et territoires : le boom des data centers et de l’IA

Laurent Carroué – Festival International de Géographie – 2-10-25

MB : je décorrelerais l’IA et l’IAD (de défense). La masse d’argent va à toutes les IA. Dans le domaine militaire, on est dans le très frugal. 

EP : quand on est à bord d’un navire, l’impact environnemental de l’IA est plutôt faible compté-tenu des choix indiqués précédemment, et sachant qu’un de ses usages est d’optimiser la consommation d’énergie. La question est plutôt : de quelle puissance de calcul a-t-on besoin et est-on capable de l’installer ? La réponse est oui.

RB : l’environnement de défense se fait plutôt avec des ressources rares quand on est au milieu de nulle part et sans approvisionnement. On n’a pas le choix de gaspiller la ressource.

On est forcément vertueux par rapport aux activités civiles qui peuvent se connecter à des centrales nucléaires sans visibilité à moyen terme sur ce que sera la ressource.

 

Q3 : plutôt le chat de Mistral que ChatGPT ? Est-ce de la souveraineté que de penser français et européen ?

MB : sur les LLM, la notion de souveraineté est évidente. Britanniques et Allemands disent du bien de Mistral. C’est vraiment une très belle histoire qui a pris une dimension européenne incontestable. 

 

Q4 : quelle dimension européenne pour vos groupes ? 

RB : MDBA comme Thalès le sont. Il faut distinguer les ressources technologiques que l’on peut partager et les applications spécifiques pour lesquelles le secret industriel s’applique. C’est une différence importante avec le monde industriel civil de l’IA où on est prêts à partager en regardant à améliorer ce que l’autre a pu faire. Pour MDBA, il est clair qu’il y a cloisonnement selon les développements des départements nationaux. Si les pays s’entendent, alors on a des cadres de partage.

EP : chez Naval Group, on a des coopérations européennes et mondiales – par exemple avec l’Inde. Mais si on le fait pour les briques de recherche, on arrive vite au passage à l’échelle à des données sensibles qu’il nous faut protéger. Et on sait ici qu’en Europe la concurrence en matière navale reste la norme. Comme cela a été dit, le frein principal est dans la récupération des données.

MB : faire traverser les frontières à des modèles n’est pas simple. On est en cours d’exploration et d’apprentissage. Il faut faire équipe de France avec équipe d’Europe.

RB : il y aussi les fonctions fédératrices que peuvent soutenir les programmes européens.

 

Q5 : quel intérêt a-t-on de développer des missiles onéreux face aux drones, aux frappes massives à bas coût ? 

RB : si on n’a qu’un missile sur un navire pour tuer un drone Shahed, le coût c’est le navire. Raisonner en coût d’effet et non en coût d’acquisition. Actuellement avec les drones on au un taux de déchet de l’ordre de 80%. Par contre il vaut mieux un essaim de drones pour détruire une installation énergétique. 

Nous avons développé des systèmes de haute technologie parce que nous devions faire des choix budgétaires et que nous avons une expertise reconnue. Ce qu’on veut faire ce sont des choix d’architecture combinée en matière de défense.

 

Q6 : avec la montée du numérique et de l’IA, va-t-on vers des armées avec moins d’hommes sur le terrain ?

EP : on n’aura pas moins de monde à bord des bateaux, mais ils ne feront pas la même chose car leur profil devra être différent. Demain on aura des spécialistes des réseaux, des infrastructures et plateformes de service, du techno-cloud, des micro-services, des modèles de données. L’IA fera le job qui décharge les marins, mais l’équipage sera plus disponible pour les tâche essentielles, comme gérer l’incertain. On préserve les hommes des endroits où les risques sont les plus élevés. 

 

RB : en fait il y a derrière le fantasme du robot tout puissant, tel dans « Planète hurlante » de Philip K. Dick ! En vérité on a un problème démographique qui fait qu’il n’y aura pas assez de gens pour combattre. La Chine, la Pologne ou Israël y réfléchissent sérieusement. Ce seront des compagnons des combattants. On passe d’une logique où on va rendre opératoire un moyen humain à celle d’une supervision de systèmes autonomes. On rentre dans une logique d’autonomisation des armées, ce qui perturbe la logique de la chaine hiérarchique de décision habituelle. On se déplace de la force physique comme résilience de base à une exportation de la violence, décidée par l’humain et effectuée par ce compagnon de combat. L’objectif étant de protéger l’humain. Il y a pas de remplacement à l’identique dans le fonctionnement. 

Frédéric Coste : merci à vous trois pour ces explications extrêmement riches ! 

Vidéo de la table ronde également visible sur la site de la FMES :