Développer une IA sûre avant qu’il ne soit trop tard, avertit un universitaire d’Oxford

Le débat sur les robots super-intelligents – et leurs dangers potentiels – n’est pas nouveau, mais ce n’est que ces dernières années que les logiciels ont développé la vitesse et la capacité nécessaires pour nous amener au bord de la création d’une machine qui pourrait un jour se révéler plus intelligente que nous. L’universitaire Stuart Armstrong, de l’université d’Oxford, au Royaume-Uni, a exposé la menace que représente l’IA de nouvelle génération et affirme que les programmeurs doivent s’efforcer de la sécuriser avant qu’elle ne devienne incontrôlable.

Une partie du problème consiste à définir exactement ce que signifie “sûr” : les robots chargés de prévenir la souffrance humaine pourraient théoriquement décider de tuer les malades et les infirmes, explique M. Armstrong, ou les robots chargés de protéger les humains pourraient décider de les emprisonner pour leur propre bien.

“Vous pouvez donner des contrôles à l’IA, et elle sera sous les contrôles qui lui ont été donnés”, a déclaré Armstrong, comme le rapporte The Telegraph. “Mais il se peut que ces contrôles ne soient pas ceux qui étaient prévus”

Armstrong s’exprimait lors d’un débat sur l’IA organisé par le cabinet de recherche technologique Gartner, et il a déclaré qu’il sera difficile de prédire dans quelle direction les machines se développent jusqu’à ce qu’il soit trop tard. Bien que les robots puissent être programmés avec un code moral, définir ce que sont ces morales et comment les appliquer serait problématique – il est déjà difficile de mettre les êtres humains d’accord sur le bien et le mal sans ajouter des robots artificiellement intelligents dans le mélange.

“Des plans pour une IA sûre doivent être élaborés avant que la première IA dangereuse ne soit créée”, a déclaré M. Armstrong. “L’industrie du logiciel vaut plusieurs milliards de dollars, et beaucoup d’efforts sont consacrés aux nouvelles technologies d’IA. Les plans visant à ralentir ce rythme de développement semblent irréalistes. Nous devons donc foncer vers la destination lointaine de l’IA sûre et y arriver rapidement, en devançant les progrès de l’industrie informatique.”

Alors que nous nous empressons d’utiliser la puissance de traitement des ordinateurs pour résoudre certains des problèmes les plus insolubles de notre époque, nous accélérons également l’arrivée d’un système logiciel capable de fonctionner indépendamment de ses créateurs, selon Armstrong – ainsi, en essayant de tirer profit de l’IA, nous pourrions la pousser plus loin que nous ne le devrions. “Les humains dirigent l’avenir non pas parce que nous sommes les plus forts ou les plus rapides, mais parce que nous sommes les plus intelligents”, a déclaré l’universitaire d’Oxford. “Lorsque les machines deviendront plus intelligentes que les humains, nous leur tendrons le volant”

M. Armstrong, qui travaille à l’Institut du futur de l’humanité à Oxford, estime que le moment critique pourrait survenir dans les prochaines décennies. Selon lui, le risque est de créer un monde où nous sommes complètement dépendants des logiciels et du matériel – et lorsque nous devenons dépendants, nous pouvons rapidement devenir superflus. Les machines auraient la capacité de communiquer directement entre elles sans interaction humaine.

Aussi inquiétantes que soient les prédictions d’Armstrong, vous trouverez de nombreuses opinions différentes sur la direction que prend l’IA, et certains des meilleurs esprits du monde travaillent sur la question pour s’assurer que nous ne serons pas envahis par les robots à l’avenir. Cela vaut peut-être la peine de garder un œil sur Siri, juste au cas où.