Les risques de l’IA avancée sont réels. Nous devons agir avant qu’il ne soit trop tard, avertissent les experts

L’intelligence artificielle peut jouer aux échecs, conduire une voiture et diagnostiquer des problèmes médicaux. Parmi les exemples, citons AlphaGo de Google DeepMind, les véhicules à conduite autonome de Tesla et Watson d’IBM.

Ce type d’intelligence artificielle est appelé “intelligence artificielle étroite” (ANI) – des systèmes non humains qui peuvent effectuer une tâche spécifique. Nous rencontrons ce type d’intelligence au quotidien, et son utilisation se développe rapidement.

Mais si de nombreuses capacités impressionnantes ont été démontrées, nous commençons également à voir des problèmes. Le cas le plus grave est celui d’une voiture d’essai à conduite autonome qui a heurté un piéton en mars. Le piéton est décédé et l’incident fait toujours l’objet d’une enquête.

L’IA de nouvelle génération

Avec la prochaine génération d’IA, les enjeux seront presque certainement beaucoup plus élevés.

L’intelligence artificielle générale (AGI) sera dotée de capacités de calcul avancées et d’une intelligence de niveau humain. Les systèmes AGI seront capables d’apprendre, de résoudre des problèmes, de s’adapter et de s’améliorer.

Ils pourront même accomplir des tâches dépassant celles pour lesquelles ils ont été conçus.

Il est important de noter que leur taux d’amélioration pourrait être exponentiel, car ils deviendront beaucoup plus avancés que leurs créateurs humains. L’introduction de l’AGI pourrait rapidement donner naissance à la superintelligence artificielle (ASI).

Bien que les systèmes AGI pleinement opérationnels n’existent pas encore, on estime qu’ils seront parmi nous entre 2029 et la fin du siècle.

Ce qui semble presque certain, c’est qu’ils finiront par arriver. Lorsqu’ils arriveront, la crainte que nous ne soyons pas en mesure de les contrôler est grande et naturelle.

Les risques associés à l’AGI

Il ne fait aucun doute que les systèmes AGI pourraient transformer l’humanité.

Parmi les applications les plus puissantes, citons la guérison des maladies, la résolution de problèmes mondiaux complexes tels que le changement climatique et la sécurité alimentaire, et le déclenchement d’un boom technologique mondial.

Mais l’absence de contrôles appropriés pourrait avoir des conséquences catastrophiques.

Malgré ce que nous voyons dans les films hollywoodiens, les menaces existentielles ne sont pas susceptibles d’impliquer des robots tueurs.

Le problème ne sera pas celui de la malveillance, mais plutôt celui de l’intelligence, écrit Max Tegmark, professeur au MIT, dans son livre Life 3.0, publié en 2017 : Being Human in the Age of Artificial Intelligence.

C’est là que la science des systèmes homme-machine – connue sous le nom de facteurs humains et d’ergonomie – sera mise en avant.

Les risques émergeront du fait que les systèmes super-intelligents identifieront des façons plus efficaces de faire les choses, concocteront leurs propres stratégies pour atteindre les objectifs, et même développeront des objectifs propres.

Imaginez ces exemples :

  • un système AGI chargé de prévenir le VIH décide d’éradiquer le problème en tuant toutes les personnes porteuses de la maladie, ou un système chargé de guérir le cancer décide de tuer toutes les personnes ayant une prédisposition génétique à cette maladie

  • un drone militaire AGI autonome décide que le seul moyen de garantir la destruction d’une cible ennemie est d’anéantir une communauté entière

  • un AGI protecteur de l’environnement décide que la seule façon de ralentir ou d’inverser le changement climatique est de supprimer les technologies et les humains qui l’induisent.

Ces scénarios font surgir le spectre de systèmes AGI disparates qui s’affrontent, sans qu’aucun d’entre eux ne prenne les préoccupations humaines comme mandat central.

Divers futurs dystopiques ont été avancés, notamment ceux dans lesquels les humains finissent par devenir obsolètes, ce qui entraîne l’extinction de la race humaine.

D’autres ont proposé des perturbations moins extrêmes mais néanmoins importantes, notamment l’utilisation malveillante de l’intelligence artificielle pour des attaques terroristes et des cyberattaques, la suppression du travail humain et la surveillance de masse, pour n’en citer que quelques-unes.

Il est donc nécessaire de mener des enquêtes centrées sur l’homme pour trouver les moyens les plus sûrs de concevoir et de gérer l’AGI afin de minimiser les risques et de maximiser les avantages.

Comment contrôler l’AGI

Contrôler l’AGI n’est pas aussi simple que d’appliquer les mêmes types de contrôles que ceux qui tendent à garder les humains sous contrôle.

De nombreux contrôles du comportement humain reposent sur notre conscience, nos émotions et l’application de nos valeurs morales. Les AGI n’auront besoin d’aucun de ces attributs pour nous causer du tort. Les formes actuelles de contrôle ne sont pas suffisantes.

On peut soutenir qu’il y a trois ensembles de contrôles qui doivent être développés et testés immédiatement :

  1. les contrôles nécessaires pour garantir que les concepteurs et les développeurs de systèmes d’AGI créent des systèmes d’AGI sûrs

  2. les contrôles qui doivent être intégrés aux AGI elles-mêmes, comme le “bon sens”, la morale, les procédures d’exploitation, les règles de décision, etc

  3. les contrôles qui doivent être ajoutés aux systèmes plus larges dans lesquels l’AGI fonctionnera, tels que la réglementation, les codes de pratique, les procédures d’exploitation standard, les systèmes de surveillance et l’infrastructure.

Les facteurs humains et l’ergonomie offrent des méthodes qui peuvent être utilisées pour identifier, concevoir et tester ces contrôles bien avant l’arrivée des systèmes AGI.

Par exemple, il est possible de modéliser les contrôles qui existent dans un système particulier, de modéliser le comportement probable des systèmes AGI dans cette structure de contrôle et d’identifier les risques de sécurité.

Cela nous permettra d’identifier où de nouveaux contrôles sont nécessaires, de les concevoir, puis de les remodeler pour voir si les risques sont éliminés en conséquence.

En outre, nos modèles de cognition et de prise de décision peuvent être utilisés pour s’assurer que les AGI se comportent de manière appropriée et ont des valeurs humanistes.

Agir maintenant, pas plus tard

Ce type de recherche est en cours, mais il est loin d’être suffisant et trop peu de disciplines sont impliquées.

Même le célèbre entrepreneur Elon Musk a mis en garde contre la “crise existentielle ” à laquelle l’humanité est confrontée du fait de l’IA avancée et a évoqué la nécessité de réglementer l’IA avant qu’il ne soit trop tard.

La prochaine décennie représente une période critique. Nous avons l’occasion de créer des systèmes d’intelligence artificielle sûrs et efficaces qui peuvent avoir des avantages considérables pour la société et l’humanité.

Dans le même temps, une approche consistant à rattraper les progrès technologiques rapides pourrait contribuer à l’extinction de la race humaine. La balle est dans notre camp, mais elle ne le sera plus pour très longtemps