Stephen Hawking prévient que notre temps en tant qu’espèce dominante sur la Terre est compté

Stephen Hawking craint que ce ne soit qu’une question de temps avant que l’humanité ne soit obligée de quitter la Terre à la recherche d’un nouveau foyer.

Le célèbre physicien théorique a déjà déclaré qu’il pensait que la survie de l’humanité dépendrait de notre capacité à devenir une espèce multiplanétaire.

Hawking a réitéré – et en fait souligné – ce point dans une récente interview avec WIRED dans laquelle il a déclaré que l’humanité a atteint “le point de non-retour.”

Selon Hawking, la nécessité de trouver un second foyer planétaire pour les humains découle à la fois des préoccupations liées à l’accroissement de la population et de la menace imminente que représente le développement de l’intelligence artificielle (IA).

Il a averti que l’IA deviendra bientôt super intelligente – potentiellement assez pour qu’elle puisse remplacer l’humanité.

“Le génie est sorti de la bouteille. Je crains que l’IA ne remplace complètement les humains”, a déclaré Hawking à WIRED.

Ce n’était certainement pas la première fois que Hawking lançait un tel avertissement. Dans une interview accordée au Times en mars dernier, il a déclaré qu’une apocalypse de l’IA était imminente et que la création d’une “forme de gouvernement mondial” serait nécessaire pour contrôler la technologie.

M. Hawking a également mis en garde contre l’impact de l’IA sur les emplois de la classe moyenne et a même demandé l’ interdiction pure et simple du développement d’agents d’IA à des fins militaires.

Dans les deux cas, il semblerait que ses mises en garde aient été largement ignorées. Pourtant, certains affirment que les machines intelligentes sont déjà en train de prendre le contrôle des emplois, et plusieurs pays – dont les États-Unis et la Russie – cherchent à mettre au point une sorte d’arme alimentée par l’IA à l’intention de leur armée.

Ces dernières années, le développement de l’IA est devenu un sujet très controversé : certains experts ont avancé des arguments similaires à ceux de M. Hawking, notamment Elon Musk, PDG et fondateur de SpaceX et Tesla, et Bill Gates, cofondateur de Microsoft.

Musk et Gates considèrent tous deux que le développement de l’IA pourrait être la cause de la disparition de l’humanité.

D’un autre côté, un certain nombre d’experts estiment que ces mises en garde sont inutilement alarmistes et qu’elles peuvent être fondées sur des scénarios de prise de contrôle de l’IA par une super-intelligence qui, selon eux, pourraient fausser la perception de l’IA par le public.

Pour Hawking, ces craintes sont fondées.

“Si les gens conçoivent des virus informatiques, quelqu’un concevra une IA qui s’améliore et se réplique elle-même”, a déclaré Hawking dans l’interview accordée à WIRED.

“Ce sera une nouvelle forme de vie qui surpasse les humains”

Hawking, semble-t-il, faisait référence au développement d’une IA suffisamment intelligente pour penser, ou même mieux, que les êtres humains – un événement qui a été surnommé la singularité technologique.

Pour ce qui est de savoir quand cela se produira (si jamais cela se produit), Hawking n’a pas vraiment donné de calendrier. Nous pouvons supposer qu’il arrivera à un moment donné dans le délai de 100 ans que Hawking a imposé pour la survie de l’humanité sur Terre.

D’autres, comme Masayoshi Son, PDG de SoftBank, et Ray Kurzweil, ingénieur en chef de Google, estiment que la singularité arrivera encore plus tôt, dans les 30 prochaines années.

Nous avons encore beaucoup de chemin à parcourir pour développer une IA véritablement intelligente, et nous ne savons pas encore exactement ce que la singularité apporterait.

Annoncerait-elle la fin de l’humanité ou ouvrirait-elle une nouvelle ère où humains et machines coexisteraient ?

Dans un cas comme dans l’autre, le potentiel de l’IA à être utilisée à la fois pour le bien et le mal exige que nous prenions les précautions nécessaires.

Cet article a été initialement publié par Futurism. Lire l’article original.