SOCIÉTÉ — Faut-il craindre la guerre des robots ?

Charles Benjamin— Programme de maîtrise en sciences de l'information

SOCIÉTÉ — Faut-il craindre la guerre des robots ?

La révolution robotique promet de transformer le visage de la guerre. L’invention de machines programmées pour tuer ou blesser des soldats ennemis sans supervision humaine est maintenant à la portée de la science. Les applications militaires de la robotique séduisent déjà les armées des pays riches, qui multiplient les programmes de recherche et risquent d’être progressivement entraînées dans une nouvelle course à l’armement. Elles réveillent toutefois les peurs d’un scénario catastrophe chez plusieurs groupes de la société civile, qui redoutent l’avènement d’une ère marquée par l’asservissement de l’humain à la machine. Faut-il s’inquiéter de la robotisation de la guerre ?

 

Moins d’une décennie après avoir fait leur apparition au-dessus des champs de bataille, les drones de combat survolent aujourd’hui massivement les territoires de guerre. Depuis son arrivée à la Maison-Blanche, le président américain Barack Obama a généralisé le recours aux assassinats ciblés et fait de ces appareils téléguidés une arme de prédilection dans la lutte contre le terrorisme. En 2013, l’armée américaine comptait près de 7 500 drones dans son arsenal, ce qui représentait le tiers de sa flotte aérienne. Au terme de son premier mandat, le président Obama avait autorisé huit fois plus d’attaques de drones que son prédécesseur George W. Bush[1].

Pourtant, si l’usage des drones constitue une transformation militaire majeure, la prolifération d’aéronefs pilotés à distance pourrait n’être que le début de la robotisation de la guerre. En effet, des percées dans le domaine de l’intelligence artificielle permettent désormais d’envisager un avenir dans lequel des machines presque entièrement autonomes repéreront et élimineront des cibles militaires sans intervention humaine[2]. Le scénario imaginé par James Cameron dans son film The Terminator pourrait bientôt devenir réalité. Or, le déploiement de robots prédateurs soulève des enjeux éthiques importants pour les citoyens et les gouvernements. Est-il souhaitable que des robots perfectionnés se substituent aux soldats et détiennent un droit de vie ou de mort sur des humains ? Les robots létaux autonomes se conformeront-ils au droit humanitaire et obéiront-ils aux lois de la guerre ? Alors que les grandes puissances refusent de décréter un moratoire sur la robotisation militaire, la coalition Campain to Stop Killer Robots (www.stopkillerrobots.org) milite contre la production de ces engins de la mort. Une lettre signée récemment par de grands noms de la science, dont le physicien Stephen Hawking et l’informaticien Steve Wozniak, réclame également l’interdiction de concevoir des robots tueurs[3].

 

Une arme rentable

L’automatisation d’une nouvelle génération de robots, dont des prototypes pourraient être opérationnels d’ici 20 ans[4], accomplit une révolution dans les affaires militaires comparable à celle provoquée par l’invention des armes à feu ou de la bombe atomique. Aux États-Unis, la Defense Advanced Research Projects Agency (www.darpa.mil) expérimente actuellement plusieurs modèles d’armes autonomes. La Corée du Sud et Israël ont respectivement mis au point les dispositifs Super Aegis ii et Sentry Tech, dotés d’un certain degré d’autonomie et capables de détecter et de détruire des cibles hostiles[5]. Pour leurs partisans, les systèmes automatisés représentent un progrès militaire et procurent des avantages considérables aux armées qui maîtrisent cette technologie. En effet, les robots sont politiquement et économiquement rentables pour les décideurs qui les emploient dans les zones de conflit. Ils constituent une solution de rechange à l’envoi de troupes au sol et permettent de tenir la promesse d’une guerre « zéro mort », chère aux opinions publiques occidentales depuis la fin de la guerre du Vietnam. Ils peuvent pénétrer plus profondément derrière les lignes ennemies sans être ravitaillés et rester déployés plus longtemps qu’un contingent de soldats. Ils peuvent être programmés pour laisser des traces électroniques de leurs interventions, rendant ainsi leur contrôle plus transparent. Ils sont également immunisés contre la peur, la fatigue et les autres facteurs de stress auxquels sont confrontés les militaires. De plus, puisqu’ils ne craignent pas pour leur survie et qu’ils ne sont pas guidés par leurs émotions, les robots ne risquent pas d’utiliser la force par instinct de conservation ou par désir de vengeance[6]. Et, à moins d’être programmés à ces fins, ils n’infligent pas délibérément des violences à des populations civiles et ne pratiquent pas la torture.

Une dérive technologique ?

En revanche, l’introduction prochaine d’automates sur les champs de bataille soulève des inquiétudes grandissantes. Pour ses détracteurs, la robotisation de la guerre constitue une dérive technologique qui risque de compromettre la paix et la sécurité internationales. En sous-traitant des opérations militaires à des robots, les dirigeants politiques peuvent éprouver moins d’hésitation à engager les hostilités. C’est aussi l’un des paradoxes des drones de combat déjà en activité : la technologie militaire contribue à banaliser les conflits armés et à normaliser le recours à la violence comme instrument de politique étrangère[7]. De plus, malgré les progrès de l’intelligence artificielle, l’utilisation de robots prédateurs risque d’être incompatible avec les principes élémentaires du droit humanitaire. Ces appareils ne sont pas équipés de capteurs susceptibles de reconnaître un combattant ennemi et de le distinguer d’un civil innocent, surtout dans le contexte des guérillas urbaines où les belligérants ne portent pas d’uniforme. Ils ne peuvent pas déterminer si une personne est blessée et hors de combat, ou si un soldat ennemi souhaite se rendre. Ils ne sont pas programmés pour calculer la proportionnalité de leurs attaques ; ils restent incapables de juger si les pertes civiles anticipées lors d’une frappe sont excessives par rapport à la valeur de la cible militaire. La robotique assouplit les règles d’engagement des armées en donnant un permis de tuer à des machines dépourvues de libre arbitre et de jugement moral[8].

Bien qu’ils soient sensibles à ces enjeux, les partisans de la robotique militaire croient néanmoins qu’il est possible de contourner les obstacles plus techniques[9]. Les robots peuvent être réglés pour ne riposter qu’en cas de légitime défense, lorsqu’ils sont victimes d’un tir ennemi. Leur usage peut également être limité aux terrains d’opérations inhabités, lors de batailles en mer ou dans le désert. En revanche, les robots autonomes, en décidant eux-mêmes de leurs actes, échappent à toute forme d’autorité hiérarchique et de responsabilité juridique, ce qui est contraire aux Conventions de Genève. Qui devrait assumer la faute pour un crime de guerre commis par un robot déréglé ou défectueux : les programmeurs, les fabricants, les officiers militaires ou les dirigeants politiques qui ont autorisé son utilisation ? Christof Heyns, le Rapporteur spécial des Nations unies sur les exécutions extrajudiciaires, sommaires ou arbitraires, appréhende les dérapages et plaide pour une suspension du développement de ces outils de combat : « Si la nature d’une arme rend impossible l’établissement des responsabilités concernant les conséquences de son utilisation, cette arme devrait être jugée abominable et son utilisation déclarée contraire à l’éthique et illicite[10]. »

 

Une interdiction préventive est-elle souhaitable ?

Pour ses opposants, la robotique militaire marque la déshumanisation de la guerre et devrait faire l’objet d’une interdiction semblable à celle appliquée aux mines antipersonnel et aux armes à laser aveuglantes. À l’inverse, le spectre d’un monde dominé par des Frankenstein robotisés paraît nettement exagéré, estiment les observateurs qui adhèrent à la révolution robotique[11]. Ceux-ci admettent que les robots militaires ne sont pas infaillibles et qu’ils pourraient enfreindre les lois de la guerre dans certaines situations de combat. Ils refusent toutefois de les juger plus sévèrement que les soldats qui, dans les conflits actuels, peuvent commettre des infractions sans que leur présence au front soit pour autant remise en question. Pour eux, l’interdiction préventive d’une arme encore inexistante est donc prématurée. Le scénario dans lequel des machines autonomes conçoivent et programment elles-mêmes d’autres machines autonomes à des fins militaires relève de la science-fiction. Les systèmes d’armes robotisés qui sortiront des laboratoires de recherche dans les prochaines décennies seront fabriqués et déployés par des êtres humains qui décideront aussi du contexte de leur utilisation. En définitive, malgré leurs nombreux désaccords, les participants au débat sur les robots prédateurs poursuivent l’objectif commun de rendre la guerre plus « humaine » en limitant les effets des opérations militaires sur les forces armées et en épargnant les souffrances inutiles aux populations civiles[12].

 

 Références


[1] Bernard, P. (2013, 20 juin). Barack Obama, président des drones. Le Monde, p. PEH6.

[2] Russell, S.  (2015, 28 mai). Ethics of artificial intelligence. Nature, 521, 415-416.

[3] Future of Life Institute. (2015, 28 juillet). Autonomous Weapons: An Open Letter from AI & Robotics Researchers. Repéré à http://futureoflife.org/AI/open_letter_autonomous_weapons

[4] Human Rights Watch. (2012). Losing Humanity: The Case against Killer Robots. Repéré à www.hrw.org/sites/default/files/reports/arms1112_ForUpload.pdf

[5] Perreault, M. (2015, 10 juin). Le spectre des robots militaires. La Presse, p. A17.

[6] Schulzke, M. (2011). Robots as weapons in just wars. Philosophy & Technology, 24, 293-306.

[7] Marbot, O. (2014, juillet/août). À quand des guerres de drones ? La Revue, 44, 50-53.

[8] Human Rights Watch. (2014). Shaking the Foundations: The Human Rights Implications of Killer Robots. Repéré à http://www.hrw.org/sites/default/files/reports/arms0514_ForUpload_0.pdf

[9] Thurnher, J. (2012). No One at the Controls: Legal Implications of Fully Autonomous Targeting. Joint Task Quarterly, 67(4), 77-84.

[10] Heyns, C. (2013). Rapport du Rapporteur spécial sur les exécutions extrajudiciaires, sommaires ou arbitraires. New York, N. Y. : Assemblée générale des Nations unies, p.17.

[11] Jeangène Vilmer, J.-B. (2014, hiver). Terminator ethics : faut-il interdire les « robots tueurs » ? Politique étrangère, 4, 151-167.

[12] Randretsa, T. (2013/2014). L’automatisation des robots sur le champ de bataille : la guerre, le droit et l’éthique. Revue internationale et stratégique, 92, 18-27.

Laisser un commentaire