Système d'armes létales autonome

robot militaire autonome programmé pour rechercher et détruire des cibles

Un système d'armes létales autonome (SALA) ou robot tueur (en anglais, lethal autonomous weapon (LAW), lethal autonomous weapon system (LAWS), autonomous weapon system (AWS), robotic weapon, killer robot ou slaughterbot[1]) est un automate capable de mener une action létale de manière automatisée sans interventions humaines. Il peut s'agir, mais pas seulement, d'un drone ou d'un système fixe tel le Samsung SGR-A1 sud-coréen. Cette terminologie date des années 2010, mais sa définition n'est pas encore totalement arrêtée en 2020[2].

D'après une communication de l’Organisation des Nations unies de 2018, les robots seraient sur le point d'être dotés d'une intelligence artificielle[3]. En 2021, dans l'immense majorité des armées régulières, l’ouverture du feu reste conditionnée à une décision humaine. L'intégration de systèmes d'armes létales autonomes au sein des armées françaises fait partie d'un des avis demandés par la ministre des Armées Florence Parly au COMEDEF en 2020.

Lors de la fusillade à Dallas en 2016, la police américaine a fait pour la première fois usage d'un robot armé télécommandé pour éliminer Micah Johnson, 25 ans, assassin de cinq policiers retranché dans un garage. Mais il était téléguidé et le tir ordonné par l'opérateur[4].

La première utilisation au combat de systèmes d’armes létales autonomes tels que le Kargu-2 de STM (en) et d’autres munitions rôdeuses d'origine turque a eu lieu en 2020 durant la deuxième guerre civile libyenne[5].

Définition de l'autonomie pour une arme

modifier

Le terme autonome a des significations différentes selon les domaines d'étude. En ingénierie, il peut faire référence à la capacité d'une machine à fonctionner sans interventions humaines. En philosophie, il peut faire référence à l'indépendance morale d'un individu. En sciences politiques, il peut faire référence à la capacité d'une région à s'autogouverner. En matière de développement d'armes militaires, l'identification d'une arme comme étant autonome n'est pas aussi claire que dans d'autres domaines[6]. La norme spécifique impliquée dans le concept d'autonomie peut varier énormément entre différents chercheurs, nations et organisations.

Différentes personnes ont différentes définitions de ce qui constitue une arme autonome létale. Heather Roff, rédactrice à la Case Western Reserve University School of Law (en), décrit les systèmes d'armes létales autonomes comme « des systèmes d'armes, capables d'apprendre et d'adapter leur fonctionnement en réponse à des circonstances changeantes dans l'environnement dans lequel [elles sont] déployées, ainsi que capables de prendre des décisions de tir par elles-mêmes »[7]. Cette définition des systèmes d'armes létales autonomes propose un seuil assez élevé comparativement aux définitions d'universitaires tels que Peter Asaro et Mark Gubrud (voir ci-dessous).

Des universitaires tels que Peter Asaro et Mark Gubrud abaissent le seuil définissant qu'un système d'armes létales autonome. Ils estiment que tout système d'armes capable de libérer une force létale sans l'opération, la décision ou la confirmation d'un superviseur humain peut être considéré comme autonome. Selon Gubrud, un système d'armes fonctionnant partiellement ou totalement sans intervention humaine est considéré comme autonome. Il affirme qu'un système d'armes n'a pas besoin d'être capable de prendre des décisions complètement seul pour être qualifié d'autonome. Au contraire, il devrait être considéré comme autonome dès qu'il participe activement à une ou plusieurs parties du processus de préparation, depuis la recherche de la cible jusqu'au tir final[8],[9].

D'autres organisations, cependant, placent le seuil des systèmes d'armes létales autonomes à un niveau plus élevé. Le ministère de la Défense du Royaume-Uni définit les systèmes d'armes létales autonomes comme « des systèmes capables de comprendre une intention et une direction de niveau supérieur. À partir de cette compréhension et de la perception de son environnement, un tel système est capable de prendre les mesures appropriées pour atteindre l'état souhaité. Il est capable de décider d'un plan d'action, à partir d'un certain nombre d'alternatives, sans dépendre de la surveillance et du contrôle humains - un tel engagement humain avec le système peut néanmoins être présent. Si l'activité globale d'un aéronef télépiloté autonome est prévisible, les actions individuelles peuvent ne pas l'être »[10].

La conclusion d'un traité entre États nécessite une définition communément acceptée de ce qui constitue exactement une arme autonome[11].

Systèmes défensifs automatiques

modifier

La plus ancienne arme létale à déclenchement automatique est la mine terrestre, utilisée depuis au moins les années 1600, et les mines marines, utilisées depuis au moins les années 1700. Les mines antipersonnel sont interdites dans de nombreux pays par le traité d'Ottawa de 1997, des exceptions notables étant les États-Unis, la Russie et une grande partie de l'Asie et du Moyen-Orient.

Certains exemples actuels de SALA sont les systèmes de protection active automatisés tueurs, tels que les systèmes d'arme rapprochés guidés par radar utilisés pour défendre les navires qui sont utilisés depuis les années 1970 (par exemple, le Phalanx CIWS américain). Ces systèmes sont capables d'identifier et d'attaquer de manière autonome des missiles, des roquettes, des tirs d'artillerie, des aéronefs et des navires de surface en approche, selon des critères définis par l'opérateur humain.

Des systèmes similaires existent pour les chars d'assaut, comme l'Arena russe, le Trophy israélien et l'AMAP-ADS (en) allemand. Plusieurs types de fusils de sentinelle stationnaires, qui peuvent tirer sur des humains et des véhicules, sont utilisés en Corée du Sud et en Israël. De nombreux systèmes de défense antimissile, comme le Dôme de fer israélien, ont également des capacités de ciblage autonome. Les tourelles automatiques installées sur des véhicules militaires sont des systèmes d'arme téléopéré.

La principale raison pour laquelle il n'y a pas d'« humain dans la boucle » dans ces systèmes est la nécessité d'une réponse rapide. Ces systèmes ont généralement été utilisés pour protéger le personnel et les installations contre des ennemis ou des projectiles en approche.

Systèmes offensifs autonomes

modifier

Les systèmes offensifs autonomes comprendraient les drones de combat. « Le prototype de drone de combat non armé BAE Systems Taranis à propulsion par réaction pourrait conduire à un Système de combat aérien du futur capable de rechercher, d'identifier et de localiser des ennemis de manière autonome, mais qui ne peut s'engager avec une cible que lorsque le commandement de la mission l'autorise. Il peut également se défendre contre les avions ennemis » (Heyns 2013, §45). Le drone Northrop Grumman X-47B peut décoller et atterrir sur des porte-avions (démonstration en 2014) ; il fait partie du programme américain Unmanned Carrier-Launched Airborne Surveillance and Strike (système de surveillance et de frappe aéroporté sans pilote, lancé d'un porte-avions).

 
Land Rover Defender serbe tractant une remorque avec le robot de combat chenillé Miloš.

Selon The Economist, à mesure que la technologie progresse, les futures applications des véhicules sous-marins sans pilote pourraient inclure le déminage, la pose de mines, la mise en réseau des capteurs anti-sous-marins dans les eaux contestées, la patrouille avec un sonar actif, le réapprovisionnement des sous-marins habités, et devenir des plateformes de missiles à faible coût[12]. En 2018, la Nuclear Posture Review (en) des États-Unis a allégué que la Russie développe une « nouvelle torpille sous-marine autonome intercontinentale, à armement nucléaire et à propulsion nucléaire" nommée Status-6 Poseidon[13].

Le ministre israélien Ayoob Kara a déclaré en 2017 qu'Israël développe des robots militaires, y compris des robots aussi petits que des mouches[14],[15].

En octobre 2018, Zeng Yi, un cadre supérieur de l'entreprise de défense chinoise Norinco, a prononcé un discours dans lequel il a déclaré que « sur les futurs champs de bataille, il n'y aura pas de personnes qui se battent » et que l'utilisation d'armes létales autonomes dans la guerre est « inévitable »[16]. En 2019, le secrétaire américain à la Défense Mark Esper a fustigé la Chine pour avoir vendu des drones capables de tuer sans interventions humaines[17].

L'armée britannique a déployé de nouveaux véhicules sans pilote et des robots militaires en 2019[18].

La marine américaine développe des flottes fantômes de navires sans équipage[19].

En 2020, un drone Kargu-2 (en), de conception turque, a traqué et attaqué une cible humaine en Libye, selon un rapport du Groupe d'experts sur la Libye du Conseil de sécurité des Nations unies, publié en mars 2021. C'était peut-être la première fois qu'un robot tueur attaquait des êtres humains[20],[21].

Questions éthiques et juridiques

modifier

Norme utilisée dans la politique américaine

modifier

La politique américaine actuelle stipule que « Les systèmes d'armes autonomes [...] doivent être conçus pour permettre aux commandants et aux opérateurs d'exercer des niveaux appropriés de jugement humain lors de l'utilisation de la force. »[22]. Toutefois, la politique exige que les systèmes d'armes autonomes qui tuent des personnes ou utilisent la force cinétique, en sélectionnant et en engageant des cibles sans autre intervention humaine, soient certifiés conformes aux niveaux appropriés et à d'autres normes, et non que ces systèmes d'armes qui ne peuvent pas respecter ces normes soient donc interdits[23].

Les chasseurs tueurs semi-autonomes qui identifient et attaquent des cibles de manière autonome ne nécessitent même pas de certification[23]. Le secrétaire adjoint à la Défense Robert Work a déclaré en 2016 que le ministère de la Défense « ne déléguerait pas l'autorité létale à une machine pour qu'elle prenne une décision », mais qu'il pourrait avoir à reconsidérer cela, car des régimes autoritaires pourraient le faire[24].

En octobre 2016, le président Barack Obama a déclaré qu'au début de sa carrière, il se méfiait d'un avenir dans lequel un président américain faisant usage de la guerre des drones pourrait « mener des guerres perpétuelles dans le monde entier, et beaucoup d'entre elles secrètes, sans aucune responsabilité ou aucun débat démocratique »[25],[26].

Aux États-Unis, l'intelligence artificielle liée à la sécurité relève depuis 2018 de la National Security Commission on Artificial Intelligence (en) (Commission de sécurité nationale sur l'intelligence artificielle)[27],[28].

Le 31 octobre 2019, le Defense Innovation Advisory Board (en) du ministère de la Défense des États-Unis a publié l'ébauche d'un rapport exposant cinq principes pour l'intelligence artificielle militarisée et formulant 12 recommandations pour l'utilisation éthique de l'intelligence artificielle par le ministère de la Défense qui garantirait qu'un opérateur humain serait toujours en mesure de regarder dans la boîte noire et de comprendre le processus de la chaîne de mise à mort. La manière dont le rapport sera mis en œuvre constitue une préoccupation majeure[29].

Violations possibles de l'éthique et des lois internationales

modifier

Stuart Russell, professeur d'informatique à l'Université de Californie à Berkeley, a déclaré que le système SALA le préoccupait, car il le jugeait contraire à l'éthique et inhumain. Le principal problème de ce système est qu'il est difficile de distinguer les combattants des non-combattants[30].

Certains (par exemple Noel Sharkey 2012) s'inquiètent de savoir si les SALA violent le droit international humanitaire, en particulier le principe de distinction, qui exige la capacité de distinguer les combattants des non-combattants, et le principe de proportionnalité, qui exige que les dommages causés aux civils soient proportionnels à l'objectif militaire[31]. Cette préoccupation est souvent invoquée comme une raison d'interdire complètement les robots tueurs, mais il est douteux qu'elle puisse être un argument contre les SALA qui ne violent pas le droit international humanitaire[32],[33],[34].

Un rapport publié en 2021 par le Service de recherche du Congrès américain affirme qu'« il n'existe pas d'interdictions juridiques nationales ou internationales sur le développement et l'utilisation des SALA », bien qu'il reconnaisse les discussions en cours dans le cadre de la Convention des Nations unies sur certaines armes classiques (CCAC)[35].

Certains disent que les armes autonomes brouillent les limites de la responsabilité d'un meurtre particulier[36]. Le philosophe Robert Sparrow soutient que les armes autonomes sont causalement, mais pas moralement responsables, comme les enfants soldats. Dans chaque cas, il affirme qu'il existe un risque d'atrocités sans sujet approprié à tenir pour responsable, ce qui viole le droit de la guerre[37]. Thomas Simpson et Vincent Müller soutiennent qu'ils peuvent faciliter l'enregistrement de qui a donné quel ordre[38]. De même, Steven Umbrello, Phil Torres et Angelo F. De Bellis soutiennent que si les capacités techniques des SALA sont au moins aussi précises que celles des soldats humains, alors, étant donné les lacunes psychologiques des soldats humains dans la guerre, seuls ces types de SALA éthiques devraient être utilisés. De même, ils proposent d'utiliser l'approche de conception sensible aux valeurs (en) comme cadre potentiel pour concevoir ces lois afin de les aligner sur les valeurs humaines et le droit international humanitaire[33]. En outre, les violations potentielles du droit international humanitaire par les SALA ne sont - par définition - applicables que dans des contextes de conflit qui impliquent la nécessité de faire la distinction entre les combattants et les civils. En tant que tel, tout scénario de conflit dépourvu de la présence de civils - c'est-à-dire dans l'espace ou en haute mer - ne se heurterait pas aux obstacles posés par le droit international humanitaire[39] .

Campagnes visant à interdire les SALA

modifier

La perspective des SALA a suscite un débat important, notamment sur le risque de voir des robots tueurs parcourir la terre - dans un avenir proche ou lointain. Un groupe Campaign to Stop Killer Robots (en) s'est formé en 2013.

En 2014, des pourparlers sont entamés, mais sous l'égide de la Convention sur certaines armes classiques (CCAC). Dans ce cadre un seul pays a le pouvoir de bloquer une proposition, ce qui freine les avancées. En juillet 2015, plus de 1 000 experts en intelligence artificielle signent une lettre alertant sur la menace d'une course aux armements intelligents et appelant à une interdiction des armes autonomes. Elle est présentée à Buenos Aires lors de la 24e Conférence internationale conjointe sur l'intelligence artificielle (IJCAI-15), notamment cosignée par Stephen Hawking, Elon Musk, Steve Wozniak, Noam Chomsky, Jaan Tallinn - cofondateur de Skype, et Demis Hassabis - cofondateur de Google DeepMind[40],[41]. Selon PAX For Peace (l'une des organisations fondatrices de la Campaign to Stop Killer Robots (en)), les armes entièrement automatisées abaisseront le seuil de déclenchement de la guerre, car les soldats seront retirés du champ de bataille et le public sera éloigné de l'expérience de la guerre, ce qui donnera aux hommes politiques et aux autres décideurs plus de latitude pour décider du moment et de la manière d'entrer en guerre[42]. Ils préviennent qu'une fois déployés, ces armes rendront le contrôle démocratique de la guerre plus difficile - ce dont l'auteur de Kill Decision (en) (un roman sur le sujet) et spécialiste des technologies de l'information Daniel Suarez a également mis en garde : selon lui, cela pourrait recentraliser le pouvoir entre quelques mains en exigeant que très peu de personnes fassent la guerre[42]. Il existe des sites web qui protestent contre le développement des SALA en présentant les ramifications indésirables si la recherche sur l'application de l'intelligence artificielle à la conception des armes se poursuit. Sur ces sites, les nouvelles concernant les questions éthiques et juridiques sont constamment mises à jour pour que les visiteurs puissent récapituler les nouvelles récentes concernant les réunions internationales et les articles de recherche concernant les SALA[43].

En 2018, le Saint-Siège, à plusieurs reprises demande à la communauté internationale d'interdire les SALA ; en novembre l'archevêque Ivan Jurkovič, observateur permanent du Saint-Siège auprès des Nations unies, a déclaré : « Afin d'éviter une course aux armements et l'augmentation des inégalités et de l'instabilité, c'est un devoir impératif d'agir rapidement : il est temps d'empêcher que les SALA deviennent la réalité de la guerre de demain. » L'Église s'inquiète du fait que ces systèmes d'armes peuvent irréversiblement changer la nature de la guerre, créer un détachement de la personne humaine et remettre en question l'humanité des sociétés[44].

Le 29 mars 2019, à l'ONU, la majorité des gouvernements représentés à une discussion sur le sujet étaient favorables à une interdiction des SALA[45]. Une minorité de gouvernements, notamment ceux de l'Australie, d'Israël, de la Russie, du Royaume-Uni et des États-Unis, s'opposaient à une interdiction[45].

Plus de 3 ans plus tard (2022), les discussions pour l'élaboration d'un traité sur les robots tueurs semblent toujours bloquées. L'Inde, la Russie et quelques autres pays ayant déjà investi dans ce type d'applications militaires de l’IA s'opposent à une interdiction. À Genève, le 10 novembre 2022, Human Rights Watch et l’International Human Rights Clinic (Clinique du droit international des droits humains) de la faculté de droit de Harvard co-publient une proposition alternative, dans un rapport intitulé « An Agenda for Action : Alternative Processes for Negotiating a Killer Robots Treaty »[46] ( « Un programme d’action : Des processus alternatifs pour la négociation d’un traité sur les robots tueurs » ). Ces ONG invitent les gouvernements à créer nouveau un forum international dédié au sujet, qui pourrait s'inspirer des retours d'expériences du travail réalisé sur les accords de désarmement humanitaire (ex : traité interdisant les armes à sous-munitions). Bonnie Docherty[47] invite les pays à agir dès maintenant « pour ne pas se laisser dépasser par les évolutions technologiques ». En octobre, plus de 70 pays, diverses ONG et le Comité international de la Croix-Rouge jugent urgente et possible l’adoption, via un traité, d'interdictions et de restrictions, et Boston Dynamics et cinq autres grands compagnies s'engagent à ne pas transformer en armes leurs robots mobiles avancés, en appelant les autres entreprises du secteur à « prendre l’engagement similaire de ne pas concevoir, autoriser, soutenir ou favoriser l’attachement d’armements à de tels robots ». António Guterres (Secrétaire général des Nations Unies) appelle lui-même à un traité contre de telles arme, « moralement révoltantes et politiquement inacceptables ». La coalition Stop Killer Robots (« Stopper les robots tueurs ») regroupe plus de 190 ONG de 67 pays, au service du plaidoyer pour une nouvelle loi internationale sur l’autonomie des systèmes d’armes. Un traité devrait a minima contenir de interdiction et des obligations positives « visant à assurer un véritable contrôle humain sur d’autres systèmes d’armes dotés d’une autonomie. L’expression « contrôle humain significatif » est communément entendu comme l’exigence d’une technologie compréhensible, prévisible et restreinte dans l’espace et dans le temps »[48].

Pas d'interdiction, mais une réglementation

modifier

Une troisième approche se concentre sur la réglementation de l'utilisation des systèmes d'armes autonomes au lieu d'une interdiction[49]. La maîtrise des armements de l'intelligence artificielle militaire nécessitera probablement l'institutionnalisation de nouvelles normes internationales incorporées dans des spécifications techniques efficaces, combinées à une surveillance active et à une diplomatie informelle par des communautés d'experts, ainsi qu'à un processus de vérification juridique et politique[50],[51],[52],[53].

Notes et références

modifier
  1. Khari Johnson, « Andrew Yang warns against 'slaughterbots' and urges global ban on autonomous weaponry », sur venturebeat.com, VentureBeat, (consulté le )
  2. « Armes autonomes : les "robots tueurs" n'existent pas, selon une mission d'information française », sur TV5MONDE, (consulté le ).
  3. « Intelligence artificielle : les robots tueurs, nouvelle révolution dans l'art de la guerre », sur Franceinfo, (consulté le ).
  4. Éric Pelletier et Nelly Terrier, « Fusillade à Dallas : la police a utilisé un robot tueur de tueur », leparisien.fr, (consulté le ).
  5. « Un rapport de l'ONU confirme l'utilisation de systèmes d'armes létaux autonomes turcs en Libye », sur Zone Militaire, (consulté le ).
  6. Rebecca Crootof, « The Killer Robots Are Here: Legal and Policy Implications », 36 Cardozo L. Rev,‎ , p. 1837 (lire en ligne)
  7. Heather Roff, « Lethal Autonomous Weapons and Jus Ad Bellum Proportionality »,
  8. Peter Asaro, « On Banning Autonomous Weapon Systems: Human Rights, Automation, and the Dehumanization of Lethal Decision-Making », Red Cross, vol. 687,‎ , p. 94
  9. (en-US) « Autonomy without Mystery: Where do you draw the line? », 1.0 Human,‎ (lire en ligne, consulté le )
  10. (en) « Unmanned aircraft systems (JDP 0-30.2) », sur GOV.UK (consulté le )
  11. (en) Armin Krishnan, Taylor & Francis Group, (ISBN 9781317109129, DOI 10.4324/9781315591070, lire en ligne)
  12. (en) « Getting to grips with military robotics », The Economist,‎ (lire en ligne, consulté le )
  13. « US says Russia 'developing' undersea nuclear-armed torpedo », CNN,‎ (lire en ligne, consulté le )
  14. « Kara: I wasn't revealing state secrets about the robots - Jerusalem Post »
  15. « Mini-nukes and inspect bot weapons being primed for future warfare »,
  16. Gregory Allen, « Understanding China's AI Strategy », sur Center for a New American Security, Center for a New American Security (consulté le )
  17. (en) « Is China exporting killer robots to Mideast? », Asia Times,‎ (lire en ligne, consulté le )
  18. « British Army to operationally deploy new robots in 2019 | March 2019 Global Defense Security army news industry | Defense Security global news industry army 2019 | Archive News year »
  19. « US Navy plans to build an unmanned Ghost Fleet »
  20. (en-US) David Hambling, « Drones may have attacked humans fully autonomously for the first time », sur New Scientist (consulté le )
  21. (en-US) « Killer drone ‘hunted down a human target’ without being told to », sur New York Post, (consulté le )
  22. US Department of Defense, « Directive 3000.09, Autonomy in weapon systems », , p. 2
  23. a et b Mark Gubrud, « Semi-autonomous and on their own: Killer robots in Plato's Cave », Bulletin of the Atomic Scientists,‎ (lire en ligne)
  24. « Pentagon examining the 'killer robot' threat », Boston Globe,‎ (lire en ligne)
  25. « Barack Obama on 5 Days That Shaped His Presidency », Daily Intelligencer, (consulté le )
  26. Ryan Devereaux et Alex Emmons, « Obama Worries Future Presidents Will Wage Perpetual, Covert Drone War », The Intercept, (consulté le )
  27. Elise M. Stefanik, « H.R.5356 - 115th Congress (2017–2018): National Security Commission Artificial Intelligence Act of 2018 », sur www.congress.gov, (consulté le )
  28. Seth Baum, « Countering Superintelligence Misinformation », Information, vol. 9, no 10,‎ , p. 244 (ISSN 2078-2489, DOI 10.3390/info9100244  )
  29. United States. Defense Innovation Board., AI principles : recommendations on the ethical use of artificial intelligence by the Department of Defense (OCLC 1126650738)
  30. Stuart Russell, « Take a stand on AI weapons », International Weekly Journal of Science, vol. 521,‎ (lire en ligne)
  31. (en) Noel E. Sharkey, « The evitability of autonomous robot warfare* », International Review of the Red Cross, vol. 94, no 886,‎ , p. 787–799 (ISSN 1816-3831, DOI 10.1017/S1816383112000732, lire en ligne)
  32. Vincent C. Müller, « Autonomous killer robots are probably good news », Ashgate, , p. 67–81
  33. a et b (en) Steven Umbrello, Phil Torres et Angelo F. De Bellis, « The future of war: could lethal autonomous weapons make conflict more ethical? », AI & Society, vol. 35, no 1,‎ , p. 273–282 (ISSN 1435-5655, DOI 10.1007/s00146-019-00879-x, hdl 2318/1699364  , S2CID 59606353, lire en ligne)
  34. Steven Umbrello et Nathan Gabriel Wood, « Autonomous Weapons Systems and the Contextual Nature of Hors de Combat Status », Information, vol. 12, no 5,‎ , p. 216 (DOI 10.3390/info12050216  )
  35. (en) Kelley M. Sayler Defense Primer: Emerging Technologies (rapport), Congressional Research Service, (lire en ligne, consulté le )
  36. Nyagudi Musandu Nyagudi, « Doctor of Philosophy Thesis in Military Informatics (OpenPhD #openphd ) : Lethal Autonomy of Weapons is Designed and/or Recessive », (consulté le )
  37. ROBERT SPARROW, « Killer Robots », Journal of Applied Philosophy, vol. 24, no 1,‎ , p. 62–77 (ISSN 0264-3758, lire en ligne)
  38. Thomas W Simpson et Müller, Vincent C., « Just war and robots' killings », Philosophical Quarterly, vol. 66, no 263,‎ , p. 302–22 (DOI 10.1093/pq/pqv075  , lire en ligne)
  39. Boulanin et al., “Limits on Autonomy in Weapon Systems,” SIPRI & ICRC (2020): 37.
  40. « Musk, Hawking Warn of Artificial Intelligence Weapons », sur WSJ Blogs - Digits, (consulté le )
  41. Samuel Gibbs, « Musk, Wozniak and Hawking urge ban on warfare AI and autonomous weapons », The Guardian,‎ (lire en ligne, consulté le )
  42. a et b « Deadly Decisions - 8 objections to killer robots » (consulté le ), p. 10
  43. (en-US) « Front page », Ban Lethal Autonomous Weapons,‎ (lire en ligne, consulté le )
  44. Modèle:LIEN WEB
  45. a et b Damien Gayle, « UK, US and Russia among those opposing killer robot ban », sur The Guardian, (consulté le )
  46. (en) « An Agenda for Action », sur Human Rights Watch, (consulté le )
  47. chercheuse senior auprès de la division Armes de Human Rights Watch, directrice adjointe du programme Conflits armés et protection des civils à la Clinique du droit international des droits humains de Harvard, et auteure principale du rapport
  48. « Robots tueurs : Négocier un traité dans le cadre d’un nouveau forum », (consulté le )
  49. Lucas Bento, « No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law », sur Harvard Scholarship Depository, (consulté le )
  50. Edward Moore Geist, « It's already too late to stop the AI arms race—We must manage it instead », Bulletin of the Atomic Scientists, vol. 72, no 5,‎ , p. 318–321 (ISSN 0096-3402, DOI 10.1080/00963402.2016.1216672, Bibcode 2016BuAtS..72e.318G, S2CID 151967826)
  51. Matthijs M. Maas, « How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons », Contemporary Security Policy, vol. 40, no 3,‎ , p. 285–311 (ISSN 1352-3260, DOI 10.1080/13523260.2019.1576464, S2CID 159310223)
  52. Merel Ekelhof, « Moving Beyond Semantics on Autonomous Weapons: Meaningful Human Control in Operation », Global Policy, vol. 10, no 3,‎ , p. 343–348 (ISSN 1758-5899, DOI 10.1111/1758-5899.12665  )
  53. (en) Steven Umbrello, « Coupling levels of abstraction in understanding meaningful human control of autonomous weapons: a two-tiered approach », Ethics and Information Technology,‎ (ISSN 1572-8439, DOI 10.1007/s10676-021-09588-w  )

Liens externes

modifier
pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy