Avec les énormes progrès réalisés dans le monde de l’intelligence artificielle (IA), les experts ont commencé à s’interroger sur les nouvelles formes de protection dont nous pourrions avoir besoin contre les formidables capacités et les dangers potentiels des ordinateurs et des robots du futur proche.
Mais les robots doivent-ils aussi être protégés contre nous ? À mesure que l'”esprit” des machines se rapproche de plus en plus de l’intelligence humaine, les nouvelles générations de technologies devront peut-être bénéficier des protections morales et juridiques que nous considérons habituellement comme des droits de l’homme, affirme le mathématicien Marcus du Sautoy, de l’université d’Oxford, au Royaume-Uni.
M. du Sautoy pense que lorsque la sophistication de la pensée informatique atteindra un niveau proche de la conscience humaine, il sera de notre devoir de veiller au bien-être des machines, comme nous le faisons pour les êtres humains.
“Nous arrivons à un point où nous pourrions dire que cette chose a un sens d’elle-même, et peut-être y a-t-il un moment seuil où soudainement cette conscience émerge”, a déclaré M. du Sautoy aux médias lors du Hays Festival à Hay-on-Wye, au Pays de Galles, cette semaine. “Et si nous comprenons que ces choses ont un niveau de conscience, nous pourrions bien avoir à introduire des droits. C’est une période passionnante.”
Du Sautoy pense que la conversation sur les droits de l’IA est maintenant nécessaire en raison des progrès récents réalisés dans des domaines tels que les neurosciences. Le mathématicien, qui est apparu au festival de littérature pour promouvoir son nouveau livre, What We Cannot Know, affirme que les nouvelles techniques nous ont permis de comprendre plus clairement que jamais la nature des processus mentaux tels que la pensée et la conscience – ce qui signifie qu’elles ne sont plus réservées aux seuls philosophes.
“Ce qui est fascinant, c’est que pendant une décennie, la conscience a été quelque chose dont personne ne s’est approché parce que nous ne savions pas comment la mesurer”, a-t-il déclaré. “Mais nous sommes dans un âge d’or. C’est un peu comme Galilée avec son télescope. Nous avons maintenant un télescope dans le cerveau et cela nous a donné l’occasion de voir des choses que nous n’avions jamais été capables de voir auparavant.”
Cette meilleure compréhension de ce qu’est la conscience signifie que nous devons la respecter sous toutes ses formes, affirme M. du Sautoy, que sa base d’existence soit organique ou synthétique.
Si l’idée qu’une machine puisse être protégée par les droits de l’homme semble sortir de la science-fiction, il s’agit en fait d’une possibilité qui se rapproche rapidement et sur laquelle les scientifiques spéculent depuis des décennies. La grande question reste la suivante : quand les systèmes informatiques deviendront-ils si avancés que leur conscience artificielle devra être reconnue et respectée ?
Divers commentateurs situent cette échéance entre 2020 et les 50 prochaines années, bien que la rapidité avec laquelle l’IA progresse – qu’il s’agisse de jouer à des jeux, d’apprendre à communiquer ou d’opérer parmi nous sans être détectée – signifie que personne ne peut vraiment en être sûr.
Du Sautoy ne peut pas non plus dire quand ce moment arrivera, mais simplement que, comme le suggère le titre de son livre, il présentera une autre série de mystères insolubles.
“Je pense qu’il y a quelque chose dans le développement du cerveau qui pourrait être comme un point d’ébullition. C’est peut-être un moment seuil”, a déclaré M. du Sautoy. “Les philosophes diront que cela ne garantit pas que cette chose ressente vraiment quelque chose et qu’elle ait vraiment un sens du moi. Elle pourrait simplement dire toutes les choses qui nous font penser qu’elle est vivante. Mais même chez les humains, nous ne pouvons pas savoir si ce qu’une personne dit est réel.”