Elon Musk et plus de 100 experts en IA exhortent l’ONU à interdire les robots tueurs

Elon Musk et plus d’une centaine de dirigeants et d’experts en intelligence artificielle (IA) ont uni leurs efforts pour demander aux Nations unies de s’engager à interdire totalement la technologie des robots tueurs.

Une lettre ouverte signée par Elon Musk, Mustafa Suleyman, de Google Deepmind, et 114 autres spécialistes de l’IA et de la robotique exhorte l’ONU à empêcher “la troisième révolution dans la guerre” en interdisant le développement de tous les systèmes d’armes autonomes létaux.

La lettre ouverte, publiée pour coïncider avec la plus grande conférence mondiale sur l’IA – IJCAI 2017, qui se déroule cette semaine à Melbourne, en Australie – met en garde contre un avenir proche où des machines autonomes seront capables de choisir et d’engager leurs propres cibles, y compris des humains innocents en plus des combattants ennemis.

“Une fois développées, elles permettront de mener des conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que ce que les humains peuvent comprendre”, écrit le consortium.

“Il peut s’agir d’armes de terreur, d’armes que des despotes et des terroristes utilisent contre des populations innocentes, et d’armes piratées pour se comporter de manière indésirable.”

Ce n’est pas la première fois que Musk et ceux qui partagent sa vision du monde s’unissent pour attirer l’attention sur la menace que représentent les armes autonomes pour l’humanité.

Le chef de SpaceX et Tesla est également à l’origine d’OpenAI, un organisme à but non lucratif qui se consacre à la promotion de la recherche éthique sur l’IA.

Mais malgré les préoccupations exprimées par les experts en IA, les retards continus dans l’élaboration d’une interdiction efficace des armes autonomes ont conduit certains à craindre que les dangers puissent échapper à toute réglementation, en particulier compte tenu du rythme rapide auquel les systèmes d’IA se développent.

“Nous n’avons pas beaucoup de temps pour agir”, peut-on lire dans la lettre ouverte. “Une fois cette boîte de Pandore ouverte, il sera difficile de la refermer”

La “troisième révolution” à laquelle les militants font référence positionne les robots tueurs comme une sorte de successeur technologique aux développements historiques de la poudre à canon et de l’armement nucléaire – des innovations qui n’ont pas exactement amélioré le monde dans lequel nous vivons.

Si la nouvelle lettre n’est pas la première fois que des experts comme Stephen Hawking, Noam Chomsky ou Steve Wozniak, cofondateur d’Apple, s’appuient sur l’IJCAI pour faire valoir leur point de vue, c’est la première fois que des représentants d’entreprises spécialisées dans l’IA et la robotique – originaires de quelque 26 pays – adoptent une position commune sur la question, rejoignant ainsi les rangs des chercheurs indépendants, notamment les suivants

“Le nombre d’entreprises et d’individus de premier plan qui ont signé cette lettre renforce notre avertissement : il ne s’agit pas d’un scénario hypothétique, mais d’une préoccupation très réelle et très urgente qui nécessite une action immédiate”, déclare le fondateur de Clearpath Robotics, Ryan Gariepy.

“Nous ne devons pas perdre de vue le fait que, contrairement à d’autres manifestations potentielles de l’IA qui restent encore du domaine de la science-fiction, les systèmes d’armes autonomes sont actuellement à l’aube de leur développement.”

Ce dernier point mérite d’être souligné. Si le cauchemar ultime des systèmes d’armes autonomes pourrait être un avenir peuplé de T-800 comme celui qui figure en haut de cette page, la réalité est que les machines à tuer basées sur l’IA existent déjà.

Des capacités autonomes ou semi-autonomes sont de plus en plus intégrées à des armes telles que le canon sentinelle Samsung SGR-A1, le drone BAE Systems Taranis et le sous-marin Sea Hunter de la DARPA.

En d’autres termes, les germes technologiques des robots tueurs de demain existent déjà sur terre, sur mer et dans les airs, et les lois efficaces pour réglementer ces machines mortelles (et l’industrie qui s’acharne à les fabriquer) n’ont pas encore été écrites.

Eh bien, il n’y a pas de meilleur moment que le présent.

“Presque toutes les technologies peuvent être utilisées à bon ou à mauvais escient, et l’intelligence artificielle n’est pas différente”, explique Toby Walsh, chercheur en IA à l’UNSW (Australie), l’un des organisateurs de l’IJCAI 2017.

“Elle peut aider à résoudre de nombreux problèmes urgents auxquels la société actuelle est confrontée… [h]ais, la même technologie peut aussi être utilisée dans des armes autonomes pour industrialiser la guerre. Nous devons prendre des décisions aujourd’hui pour choisir lequel de ces futurs nous voulons.”

UNSW Science est un sponsor de ScienceAlert. Apprenez-en davantage sur leurs recherches de premier plan au niveau mondial.