Des centaines de grands spécialistes mondiaux de la robotique et de l’intelligence artificielle ont publié une lettre ouverte exhortant les Nations unies à soutenir l’interdiction des systèmes d’armes autonomes létaux.
La lettre est signée par 700 chercheurs et plus de 600 autres experts, dont Elon Musk, le célèbre physicien Stephen Hawking, le cofondateur d’Apple Steve Wozniack, le cofondateur de Skype Jaan Talinn et le philosophe militant Noam Chomsky.
Sa publication coïncide avec le premier jour de la plus prestigieuse conférence sur l’intelligence artificielle au monde, l’International Joint Conference on Artificial Intelligence 2015.
La lettre affirme que le déploiement d’armes autonomes est réalisable d’ici quelques années et qu’il jouera un rôle dangereux en conduisant une troisième révolution dans la guerre, après la poudre à canon et les armes nucléaires.
Toby Walsh, professeur d’intelligence artificielle, déclare : “Toutes les technologies peuvent être utilisées à bon ou mauvais escient. L’intelligence artificielle est une technologie qui peut être utilisée pour aider à résoudre de nombreux problèmes urgents auxquels la société actuelle est confrontée – l’inégalité et la pauvreté, le coût croissant des soins de santé, l’impact du réchauffement climatique… mais elle peut aussi être utilisée pour infliger des dommages inutiles.”
Les chercheurs affirment que le remplacement des soldats humains par des machines est une bonne chose en réduisant le nombre de victimes, mais une mauvaise chose parce qu’il abaisse le seuil à partir duquel il faut aller au combat.
La lettre ouverte :
Armes autonomes : Une lettre ouverte des chercheurs en IA et en robotique
Les armes autonomes sélectionnent et engagent des cibles sans intervention humaine. Elles peuvent inclure, par exemple, des quadcoptères armés capables de rechercher et d’éliminer des personnes répondant à certains critères prédéfinis, mais n’incluent pas les missiles de croisière ou les drones pilotés à distance pour lesquels les humains prennent toutes les décisions de ciblage. La technologie de l’intelligence artificielle (IA) a atteint un point où le déploiement de tels systèmes est – en pratique sinon légalement – réalisable en quelques années, et non en quelques décennies, et les enjeux sont élevés : les armes autonomes ont été décrites comme la troisième révolution dans la guerre, après la poudre à canon et les armes nucléaires.
De nombreux arguments ont été avancés pour et contre les armes autonomes, par exemple le fait que le remplacement des soldats humains par des machines est une bonne chose car il réduit les pertes pour le propriétaire, mais une mauvaise chose car il abaisse ainsi le seuil à partir duquel il faut aller au combat. La question clé qui se pose aujourd’hui à l’humanité est de savoir s’il faut lancer une course mondiale à l’armement en matière d’IA ou l’empêcher de démarrer. Si l’une ou l’autre des grandes puissances militaires poursuit le développement de l’armement IA, une course aux armements mondiale est pratiquement inévitable, et le point final de cette trajectoire technologique est évident : les armes autonomes deviendront les Kalachnikovs de demain
Contrairement aux armes nucléaires, elles ne nécessitent pas de matières premières coûteuses ou difficiles à obtenir, elles deviendront donc omniprésentes et bon marché pour toutes les puissances militaires importantes qui les produiront en masse. Ce ne sera qu’une question de temps avant qu’elles n’apparaissent sur le marché noir et dans les mains de terroristes, de dictateurs souhaitant mieux contrôler leur population, de seigneurs de la guerre désireux de perpétrer un nettoyage ethnique, etc. Les armes autonomes sont idéales pour des tâches telles que les assassinats, la déstabilisation des nations, la soumission des populations et le meurtre sélectif d’un groupe ethnique particulier
Nous pensons donc qu’une course aux armements militaires d’IA ne serait pas bénéfique pour l’humanité. Il existe de nombreux moyens par lesquels l’IA peut rendre les champs de bataille plus sûrs pour les humains, en particulier les civils, sans créer de nouveaux outils pour tuer des gens.
Tout comme la plupart des chimistes et des biologistes n’ont aucun intérêt à construire des armes chimiques ou biologiques, la plupart des chercheurs en IA n’ont aucun intérêt à construire des armes d’IA – et ne veulent pas que d’autres ternissent leur domaine en le faisant, ce qui pourrait créer une réaction publique majeure contre l’IA et réduire ses futurs avantages pour la société. En effet, les chimistes et les biologistes ont largement soutenu les accords internationaux qui ont réussi à interdire les armes chimiques et biologiques, tout comme la plupart des physiciens ont soutenu les traités interdisant les armes nucléaires basées dans l’espace et les armes laser aveuglantes.
En résumé, nous pensons que l’IA a un grand potentiel pour bénéficier à l’humanité de nombreuses façons, et que l’objectif du domaine devrait être de le faire. Le lancement d’une course à l’armement militaire de l’IA est une mauvaise idée, et devrait être empêché par une interdiction des armes offensives autonomes échappant à tout contrôle humain significatif.