Une réunion internationale prouve que personne ne sait comment réglementer les robots tueurs

Des diplomates du monde entier se sont réunis à Genève la semaine dernière pour la troisième réunion informelle d’experts des Nations unies sur les systèmes d’armes autonomes létaux (LAWS), communément appelés “robots tueurs”.

Leur objectif était de progresser dans la décision de savoir si, ou comment, les LAWS doivent être réglementés par le droit humanitaire international.

Différents points de vue ont été exprimés lors de la réunion, du Pakistan en faveur d’une interdiction totale au Royaume-Uni en faveur d’une absence de nouvelle réglementation pour les LAWS, en passant par plusieurs positions intermédiaires.

Malgré la diversité des points de vue exprimés, il existe un terrain d’entente.

Il est généralement admis que les LAWS sont régis par le droit humanitaire international. Par exemple, les robots ne peuvent ignorer les principes de distinction entre civils et combattants, ou de proportionnalité dans l’ampleur de l’attaque.

Les commandants humains auraient également une responsabilité de commandement à l’égard de leurs robots, tout comme ils le font pour leurs hommes et femmes de service. Les robots ne peuvent pas être utilisés légalement pour perpétrer des génocides, des massacres et des crimes de guerre.

Au-delà de cela, les différentes nations ont adopté quatre grandes positions.

Position 1 : S’appuyer sur les lois existantes

La position du Royaume-Uni est que le droit international humanitaire existant est suffisant pour réglementer les technologies émergentes en matière d’intelligence artificielle (IA) et de robotique.

L’argument est que le droit international humanitaire était suffisant pour réglementer les avions et les sous-marins lorsqu’ils sont apparus, et qu’il sera également adapté à de nombreux types d’IA. Cela comprendrait les drones Predator dotés d’un “gouverneur éthique” – qui est un logiciel conçu pour déterminer si une frappe est conforme aux règles d’engagement spécifiées et au droit humanitaire international – ou les navires de guerre anti-sous-marins autonomes, tels que le Sea Hunter autonome expérimental de la marine américaine.

Position 2 : Interdire l’apprentissage automatique

La délégation française a déclaré qu’une interdiction serait “prématurée” et qu’elle est ouverte à l’acceptation de la légalité d’un LAWS “hors circuit ” avec un “humain dans le circuit plus large”. Cela signifie que la machine peut sélectionner des cibles et tirer de manière autonome, mais que les humains continuent de fixer les règles d’engagement.

Toutefois, ils se sont montrés ouverts à la réglementation de l’apprentissage automatique dans les LAWS “off the loop” (qui n’existent pas encore). Ainsi, ils pourraient soutenir une interdiction future de toute IA à apprentissage automatique – similaire à AlphaGo, qui a récemment battu le champion du monde humain de go – dans le contrôle direct des missiles sans que les humains soient dans la boucle élargie. La principale préoccupation est que de telles IA pourraient être imprévisibles.

Position 3 : Interdire “hors de la boucle” avec un “humain dans la boucle élargie”

Les délégations néerlandaise et suisse ont suggéré que les systèmes “hors boucle” avec un “humain dans la boucle élargie” pourraient être conformes au droit humanitaire international, présenter un contrôle humain suffisamment significatif et répondre aux exigences de la conscience publique.

Le Royaume-Uni, la France et le Canada se sont prononcés contre une interdiction de ces systèmes.

Les partisans de ces armes robotisées affirment qu’elles pourraient être moralement supérieures aux soldats humains parce qu’elles seraient plus exactes, plus précises et moins sujettes aux mauvaises décisions dues à la panique ou à la vengeance.

Les opposants affirment qu’elles pourraient se tromper de cible dans des environnements encombrés ou masqués et qu’elles sont moralement inacceptables.

Par exemple, le Saint-Siège et 13 autres nations pensent qu’une intervention humaine en temps réel dans la décision d’ôter la vie est moralement requise, et qu’il doit donc toujours y avoir un humain dans la boucle.

Cette position exige des exceptions pour les armes “défensives” déjà en service, telles que le système d’armes rapprochées Phalanx, et les armes “hors circuit” acceptées de longue date, telles que les mines navales, qui existent depuis les années 1860.

Position 4 : Interdire les armes “dans le circuit”

Le Pakistan et la Palestine soutiendront toute mesure suffisamment large pour interdire les drones télépilotés. Cependant, la plupart des nations considèrent que cela dépasse le cadre du débat sur les LAWS, car ce sont des humains qui prennent les décisions de sélectionner et d’engager les cibles, même si beaucoup s’accordent à dire que les drones sont un désastre pour les droits de l’homme.

Définir les lignes en termes de Turing

Formellement, une IA est une machine de Turing qui applique mécaniquement des règles à des entrées symboliques pour générer des sorties.

Une interdiction des LAWS à apprentissage automatique est une interdiction des IA qui mettent à jour leur propre livre de règles pour prendre des décisions létales. Une interdiction des LAWS “en boucle” est une interdiction des IA dont le livre de règles est écrit par l’homme et qui prennent des décisions létales. Une interdiction des LAWS “in the loop” est une interdiction d’utiliser des robots pilotés par des humains comme armes.

Les avis divergent également sur la question de savoir si le contrôle des décisions par un calcul de Turing peut être qualifié de significatif ou d’humain.

Les prochaines étapes

La réunion de Genève était une réunion informelle d’experts visant à clarifier les définitions et à obtenir un consensus sur ce qui pourrait être interdit ou réglementé dans un traité. En tant que tel, il n’y a pas eu de vote sur la formulation du traité.

Le résultat le plus probable est la mise en place d’un panel d’experts gouvernementaux pour poursuivre les discussions. L’IA, la robotique et les lois sont toujours en cours de développement. En l’état actuel des choses, le monde est à la position 1 : s’appuyer sur le droit humanitaire international existant.

Si un AlphaGo chargé des missiles respecte des principes tels que la discrimination et la proportionnalité, il ne serait pas clairement illégal, mais on pourrait simplement le penser.