Il ne peut y avoir de décision plus conséquente que de lancer des armes atomiques et éventuellement de déclencher un holocauste nucléaire. Le président John F. Kennedy a fait face à un tel moment lors de la crise des missiles cubains de 1962 et, après avoir envisagé le résultat catastrophique d’un échange nucléaire américano-soviétique, il est arrivé à la conclusion que les puissances atomiques devraient imposer des barrières sévères à l’utilisation précipitée de ces armes. Parmi les mesures que lui et d’autres dirigeants mondiaux ont adoptées figuraient des directives exigeant que les hauts fonctionnaires, et pas seulement le personnel militaire, aient un rôle à jouer dans toute décision de lancement nucléaire.
C’était à l’époque, bien sûr, et c’est maintenant. Et quel moment! Avec l’intelligence artificielle, ou l’IA, qui va bientôt jouer un rôle de plus en plus important dans les affaires militaires, comme dans pratiquement tout le reste de nos vies, le rôle des humains, même dans la prise de décision nucléaire, est susceptible d’être progressivement diminué. En fait, dans un futur monde saturé par l’IA, il pourrait disparaître complètement, laissant des machines déterminer le sort de l’humanité.
Ce n’est pas une conjecture oiseuse basée sur des films de science-fiction ou des romans dystopiques. C’est trop réel, trop ici et maintenant, ou du moins ici et bientôt. Alors que le Pentagone et les commandements militaires des autres grandes puissances se tournent vers l’avenir, ce qu’ils voient est un champ de bataille très contesté – certains l’ont appelé un environnement hyper-guerrier – où de vastes essaims d’armes robotisées guidées par l’IA se battront à des vitesses dépassant de loin la capacité des commandants humains à suivre le cours d’une bataille. À un tel moment, on pense que les commandants pourraient de plus en plus être contraints de compter sur des machines toujours plus intelligentes pour prendre des décisions sur les armes à utiliser quand et où. Au début, cela peut ne pas s’étendre aux armes nucléaires, mais à mesure que la vitesse de la bataille augmente et que le coupe-feu «entre elles et les armes conventionnelles se réduit, il peut s’avérer impossible d’empêcher l’automatisation rampante de la prise de décision, même en matière de lancement nucléaire.
Un tel résultat ne peut que devenir plus probable à mesure que l’armée américaine achève un réalignement de haut en bas destiné à le transformer d’une organisation antiterroriste fondamentalement de petite guerre en une organisation axée sur le combat entre pairs avec la Chine et la Russie . Ce changement a été mandaté par le ministère de la Défense dans sa stratégie de sécurité nationale de décembre 2017. Plutôt que de se concentrer principalement sur les armes et les tactiques visant à combattre les insurgés mal armés dans des conflits à petite échelle sans fin, l’armée américaine est maintenant repensée pour combattre de plus en plus bien. des forces chinoises et russes équipées dans des engagements multidimensionnels (air, mer, terre, espace, cyberespace) impliquant plusieurs systèmes d’attaque (chars, avions, missiles, fusées) fonctionnant avec une surveillance humaine minimale.
L’effet / résultat majeur de toutes ces capacités réunies sera une guerre de l’innovation jamais vue auparavant: la minimisation de la prise de décision humaine dans la grande majorité des processus traditionnellement requis pour mener la guerre », a observé le général de marine à la retraite John Allen et entrepreneur en IA. Amir Hussain. En cette ère d’hyper guerre, nous verrons des humains fournir des intrants larges et de haut niveau tandis que les machines planifieront, exécuteront et s’adapteront à la réalité de la mission et assumeront le fardeau de milliers de décisions individuelles sans apport supplémentaire. »
Cette minimisation de la prise de décision humaine »aura de profondes implications pour l’avenir du combat. D’ordinaire, les dirigeants nationaux cherchent à contrôler le rythme et la direction des combats pour garantir le meilleur résultat possible, même si cela signifie arrêter les combats pour éviter de plus grandes pertes ou prévenir une catastrophe humanitaire. Il est peu probable que des machines, même des machines très intelligentes, soient capables d’évaluer le contexte social et politique du combat, leur activation pourrait donc conduire à des situations d’escalade incontrôlée.
Il faudra peut-être des années, voire des décennies, avant que les machines ne remplacent les humains dans des rôles critiques de prise de décision militaire, mais ce temps est à l’horizon. En ce qui concerne le contrôle des systèmes d’armes compatibles avec l’IA, comme l’a dit le secrétaire à la défense Jim Mattis dans une récente interview, pour un avenir proche, il y aura un élément humain important. Peut-être pendant 10 ans, peut-être pour 15 ans. Mais pas pour 100. »
Pourquoi l’IA?
Il y a même cinq ans, rares étaient les membres de l’establishment militaire qui ont beaucoup réfléchi au rôle de l’IA ou de la robotique lorsqu’il s’agissait d’opérations de combat majeures. Oui, les avions télépilotés (RPA), ou drones, ont été largement utilisés en Afrique et dans le Grand Moyen-Orient pour traquer les combattants ennemis, mais ceux-ci sont en grande partie des opérations auxiliaires (et parfois de la CIA), destinées à soulager la pression sur les commandos américains et leurs alliés face à des bandes dispersées d’extrémistes violents. De plus, les RPA d’aujourd’hui sont toujours contrôlés par des opérateurs humains, même à distance, et utilisent encore peu les systèmes d’identification et d’attaque des cibles basés sur l’IA. À l’avenir, cependant, de tels systèmes devraient peupler une grande partie de n’importe quel espace de combat, remplaçant les humains dans de nombreuses, voire la plupart des fonctions de combat.
Pour accélérer cette transformation, le ministère de la Défense consacre déjà des centaines de millions de dollars à la recherche liée à l’IA. Nous ne pouvons pas espérer réussir à combattre les conflits de demain avec la pensée, les armes ou l’équipement d’hier », a déclaré Mattis au Congrès en avril. Pour assurer la suprématie militaire continue, a-t-il ajouté, le Pentagone devrait concentrer plus d’investissements dans l’innovation technologique pour augmenter la létalité, y compris la recherche sur les systèmes autonomes avancés, l’intelligence artificielle et l’hypersonique. »
Pourquoi l’accent soudain mis sur l’IA et la robotique? Cela commence, bien sûr, par les progrès étonnants réalisés par la communauté technologique – dont une grande partie est basée dans la Silicon Valley, en Californie – pour améliorer l’IA et l’appliquer à une multitude de fonctions, y compris l’identification d’images et la reconnaissance vocale. L’une de ces applications, Alexa Voice Services, est le système informatique derrière le haut-parleur intelligent d’Amazon qui peut non seulement utiliser Internet pour faire vos enchères, mais interpréter vos commandes. (Alexa, joue de la musique classique. « Alexa, dis-moi la météo d’aujourd’hui. » Alexa, allume les lumières. « ) Un autre est le type de technologie de véhicule autonome qui devrait révolutionner le transport.
L’intelligence artificielle est une technologie omnidirectionnelle », expliquent les analystes du Congressional Research Service, une agence d’information non partisane, car elle a le potentiel d’être intégrée dans pratiquement tout.» Il s’agit également d’une technologie à double usage dans la mesure où elle peut être appliquée aussi bien à des fins militaires que civiles. Les voitures autonomes, par exemple, s’appuient sur des algorithmes spécialisés pour traiter les données d’un ensemble de capteurs surveillant les conditions de circulation et ainsi décider des itinéraires à prendre, du moment de changer de voie, etc. La même technologie et les versions reconfigurées des mêmes algorithmes seront un jour appliquées aux chars autonomes lancés sur les futurs champs de bataille. De même, un jour, un drone – sans opérateurs humains dans des lieux éloignés – sera capable de parcourir un champ de bataille pour trouver des cibles désignées (chars, systèmes radar, combattants), en déterminant que quelque chose qu’il voit « est bien sur sa liste de cibles et en décidant » de se lancer un missile.
Il ne faut pas un cerveau particulièrement agile pour comprendre pourquoi les responsables du Pentagone chercheraient à exploiter une telle technologie: ils pensent que cela leur donnera un avantage significatif dans les guerres futures. Tout conflit à grande échelle entre les États-Unis et la Chine ou la Russie (ou les deux) serait, pour le moins, extraordinairement violent, avec peut-être des centaines de navires de guerre et plusieurs milliers d’avions et de véhicules blindés tous concentrés dans des espaces de combat densément peuplés. Dans un tel environnement, la vitesse de prise de décision, de déploiement et d’engagement s’avérera sans aucun doute un atout essentiel. Compte tenu des futures armes ultra-intelligentes et guidées avec précision, quiconque tire le premier aura de meilleures chances de succès, voire de survie, qu’un adversaire à tir plus lent. Les humains peuvent se déplacer rapidement dans de telles situations lorsqu’ils sont obligés de le faire, mais les futures machines agiront beaucoup plus rapidement, tout en gardant une trace de plus de variables sur le champ de bataille.
Comme le général Paul Selva, vice-président des chefs d’état-major interarmées, l’a déclaré au Congrès en 2017,
Il est très convaincant quand on examine les capacités que l’intelligence artificielle peut apporter à la vitesse et à la précision du commandement et du contrôle et les capacités que la robotique avancée pourrait apporter à un espace de bataille complexe, en particulier l’interaction machine à machine dans l’espace et le cyberespace, où la vitesse est essentielle. »
En plus de chercher à exploiter l’IA dans le développement de ses propres armes, les responsables militaires américains sont profondément conscients que leurs principaux adversaires avancent également dans l’arsenalisation de l’IA et de la robotique, à la recherche de nouvelles façons de surmonter les avantages de l’Amérique dans les armes classiques. Selon le Congressional Research Service, par exemple, la Chine investit massivement dans le développement de l’intelligence artificielle et son application à des fins militaires. Bien qu’elle ne dispose pas de la base technologique de la Chine ou des États-Unis, la Russie accélère également le développement de l’IA et de la robotique. Toute avance significative de la Chine ou de la Russie dans ces technologies émergentes qui pourraient menacer la supériorité militaire de ce pays serait intolérable pour le Pentagone.
Il n’est donc pas surprenant que, à la manière des courses aux armements passées (du développement des cuirassés avant la Première Guerre mondiale aux armes nucléaires de la guerre froide), une course aux armements en IA »est en cours, avec les États-Unis, la Chine, la Russie et d’autres pays. (y compris la Grande-Bretagne, Israël et la Corée du Sud) cherchant à obtenir un avantage critique dans l’arsenalisation de l’intelligence artificielle et de la robotique. Les responsables du Pentagone citent régulièrement les avancées chinoises en matière d’IA lorsqu’ils recherchent un financement du Congrès pour leurs projets, tout comme les responsables militaires chinois et russes citent sans aucun doute les Américains pour financer leurs propres projets favoris. À la mode d’une véritable course aux armements, cette dynamique accélère déjà le rythme de développement et de déploiement de systèmes reposant sur l’IA et assure leur future importance dans la guerre.
Commander et contrôler
Alors que cette course aux armements se déroule, l’intelligence artificielle sera appliquée à tous les aspects de la guerre, de la logistique et de la surveillance à l’identification des cibles et à la gestion des combats. Des véhicules robotisés accompagneront les troupes sur le champ de bataille, transportant des fournitures et tirant sur les positions ennemies; des nuées de drones armés attaqueront les chars, les radars et les centres de commandement ennemis; les véhicules sous-marins sans pilote, ou UUV, poursuivront à la fois les sous-marins ennemis et les navires de surface. Au début du combat, tous ces instruments de guerre seront sans aucun doute contrôlés par l’homme. Cependant, à mesure que les combats s’intensifient, les communications entre le quartier général et les lignes de front risquent d’être perdues et ces systèmes seront, selon les scénarios militaires déjà écrits, autonomes, habilités à prendre des mesures meurtrières sans autre intervention humaine.
La majeure partie du débat sur l’application de l’IA et sa future autonomie sur le champ de bataille s’est concentrée sur la moralité de l’autonomisation d’armes entièrement autonomes – parfois appelées robots tueurs »- avec la capacité de prendre des décisions de vie ou de mort par elles-mêmes, ou de savoir si l’utilisation de tels systèmes violerait les lois de la guerre et le droit international humanitaire. De tels statuts exigent que les faiseurs de guerre soient capables de faire la distinction entre les combattants et les civils sur le champ de bataille et d’épargner ces derniers du plus possible. Les partisans de la nouvelle technologie affirment que les machines deviendront en effet assez intelligentes pour trier ces distinctions pour elles-mêmes, tandis que les opposants insistent sur le fait qu’ils ne se révéleront jamais capables de faire des distinctions critiques de ce genre dans le feu de la bataille et ne seraient pas capables de faire preuve de compassion quand approprié. Un certain nombre d’organisations de défense des droits de l’homme et d’organisations humanitaires ont même lancé la Campagne pour arrêter les robots tueurs dans le but d’adopter une interdiction internationale du développement et du déploiement de systèmes d’armes entièrement autonomes.
Dans l’intervalle, un débat peut-être encore plus important se dessine dans le domaine militaire sur l’application de l’IA aux systèmes de commandement et de contrôle (C2), c’est-à-dire sur la manière dont les officiers supérieurs communiqueront les ordres clés à leurs troupes. Les généraux et les amiraux cherchent toujours à maximiser la fiabilité des systèmes C2 pour s’assurer que leurs intentions stratégiques seront remplies aussi complètement que possible. À l’ère actuelle, ces systèmes dépendent fortement de systèmes de communication radio et satellite sécurisés qui s’étendent du siège social aux premières lignes. Cependant, les stratèges craignent que, dans un futur environnement hyper-guerre, de tels systèmes puissent être bloqués ou dégradés juste au moment où la vitesse des combats commence à dépasser la capacité des commandants à recevoir des rapports sur le champ de bataille, à traiter les données et à envoyer des commandes en temps opportun. Considérez cela comme une définition fonctionnelle du brouillard de guerre infâme multiplié par l’intelligence artificielle – avec une défaite un résultat probable. La réponse à un tel dilemme pour de nombreux responsables militaires: que les machines prennent également le contrôle de ces systèmes. Comme le dit un rapport du Congressional Research Service, à l’avenir, les algorithmes d’IA pourraient fournir aux commandants des plans d’action viables basés sur une analyse en temps réel de l’espace de bataille, ce qui permettrait une adaptation plus rapide aux événements en cours. »
Et un jour, bien sûr, il est possible d’imaginer que les esprits derrière une telle prise de décision cesseraient d’être humains. Les données entrantes provenant des systèmes d’information du champ de bataille seraient plutôt acheminées vers des processeurs d’IA axés sur l’évaluation des menaces imminentes et, compte tenu des contraintes de temps impliquées, l’exécution de ce qu’ils considéraient comme les meilleures options sans instructions humaines.
Les responsables du Pentagone nient que tout cela soit l’intention de leurs recherches liées à l’IA. Ils reconnaissent cependant qu’ils peuvent au moins imaginer un avenir dans lequel d’autres pays délèguent la prise de décision aux machines et les États-Unis ne voient d’autre choix que de suivre leur exemple, de peur qu’ils ne perdent le terrain stratégique. Nous ne déléguerons pas l’autorité létale à une machine pour prendre une décision », a déclaré le secrétaire adjoint à la Défense de l’époque, Robert Work, à Paul Scharre du Center for a New American Security dans une interview en 2016. Mais il a ajouté la mise en garde habituelle: à l’avenir, nous pourrions être confrontés à un concurrent qui est plus disposé à déléguer l’autorité aux machines que nous ne le sommes et à mesure que la concurrence se déroulera, nous devrons prendre des décisions sur la manière de concurrencer. »
La décision du Jugement dernier
L’hypothèse dans la plupart de ces scénarios est que les États-Unis et leurs alliés seront engagés dans une guerre conventionnelle avec la Chine et / ou la Russie. Gardez à l’esprit, alors, que la nature même d’une telle hyper-guerre future dirigée par l’IA ne fera qu’augmenter le risque que les conflits conventionnels puissent franchir un seuil qui n’a jamais été franchi auparavant: une véritable guerre nucléaire entre deux États nucléaires. Et si cela se produisait, ces systèmes C2 dotés de l’IA pourraient, tôt ou tard, se retrouver en position de lancer des armes atomiques.
Un tel danger provient de la convergence de multiples avancées technologiques: pas seulement l’IA et la robotique, mais le développement de capacités de frappe conventionnelles comme des missiles hypersoniques capables de voler à cinq fois ou plus la vitesse du son, des canons électromagnétiques et des hautes énergies lasers. Ces armes, bien que non nucléaires, lorsqu’elles sont combinées avec des systèmes de surveillance et d’identification des cibles par l’IA, pourraient même attaquer les armes de représailles mobiles d’un ennemi et menacer ainsi d’éliminer sa capacité à lancer une réponse à toute attaque nucléaire. Dans un tel scénario, utilisez-les ou perdez-les. Tout pouvoir pourrait être enclin à ne pas attendre, mais à lancer ses armes nucléaires au premier signe d’une attaque possible, ou même, craignant une perte de contrôle dans un engagement incertain et rapide, déléguer l’autorité de lancement à ses machines. Et une fois que cela s’est produit, il pourrait s’avérer presque impossible d’empêcher une nouvelle escalade.
La question se pose alors: les machines prendraient-elles de meilleures décisions que les humains dans une telle situation? Ils sont certainement capables de traiter de grandes quantités d’informations sur de brèves périodes et de peser les avantages et les inconvénients des actions alternatives d’une manière complètement sans émotion. Mais les machines font aussi des erreurs militaires et, surtout, elles n’ont pas la capacité de réfléchir sur une situation et de conclure: arrêtez cette folie. Aucun avantage au combat ne vaut l’annihilation humaine mondiale.
Comme l’a dit Paul Scharre dans Army of None, un nouveau livre sur l’IA et la guerre, les humains ne sont pas parfaits, mais ils peuvent sympathiser avec leurs adversaires et voir la situation dans son ensemble. Contrairement aux humains, les armes autonomes n’auraient aucune capacité à comprendre les conséquences de leurs actions, aucune capacité à prendre du recul au bord de la guerre. »
Alors peut-être que nous devrions réfléchir à deux fois pour donner à une future version militarisée d’Alexa le pouvoir de lancer un Armageddon fabriqué à la machine.