Il existe trois types de conscience, et les ordinateurs en ont maîtrisé un, selon une étude

La conscience est un concept difficile à cerner, mais un petit groupe de neuroscientifiques vient de s’y atteler.

Leur objectif était de déterminer si nous sommes proches du Saint Graal de l’IA – la conscience artificielle de soi.

Maintenant, la réponse courte est non. Désolé. Mais avant que vous ne pleuriez sur un avenir sombre sans compagnons robots, ils soulignent comment nous pourrions encore construire nos propres esprits pleinement conscients.

Les questions relatives à la conscience peuvent être classées en deux catégories : les questions faciles et les questions difficiles. Les questions faciles sont difficiles. Nous y reviendrons.

Et le difficile ? Oubliez-la. Il s’agit de trouver un moyen de définir des choses comme le libre arbitre et l’agence, ce qu’il vaut mieux laisser aux étudiants de première année de philosophie après trois bières.

Le mieux que l’on puisse faire est de dire que la conscience est constituée des pensées et des sensations que nous expérimentons tous personnellement. Ce qui signifie que nous n’avons pas encore de moyen d’établir si elle existe dans quelque chose d’autre, comme un ordinateur.

Pour en revenir au problème facile, si la conscience que nous considérons comme acquise chez nos semblables est basée sur les mêmes lois physiques que celles décrites dans nos manuels de physique et de chimie, nous devrions être en mesure de trouver un moyen de la modéliser. Théoriquement.

C’est l’une des choses qui empêchaient la légende mathématique Alan Turing de dormir la nuit. Sa réponse a permis de jeter les bases de l’ordinateur moderne.

Si Turing rêvait de l’intelligence artificielle dont nous disposons aujourd’hui sous la forme de machines à calculer universelles qui joueraient aux échecs mieux que les champions du monde, son esprit serait probablement soufflé par le niveau d’AlphaGo et de DeepMind.

Aussi fantastiques que soient ces systèmes informatiques, leurs talents extraordinaires ne recoupent qu’à peine nos propres capacités cognitives – ils peuvent résoudre des problèmes à des vitesses ridicules, mais ils ne savent toujours pas qu’ils peuvent résoudre des problèmes.

Pourrions-nous apporter quelques modifications dans un avenir proche pour qu’ils se réveillent et rêvent peut-être de la disparition de la civilisation humaine ?

Pour répondre à cette question, trois chercheurs ont divisé la conscience en trois catégories.

Ils ont appelé la catégorie la plus basse C0, l’assimilant à la résolution de problèmes que notre cerveau effectue sans que nous en ayons conscience.

S’il vous est déjà arrivé de rentrer du travail en voiture à travers les embouteillages aux heures de pointe, pour vous rendre compte que vous n’avez aucun souvenir du trajet et que votre voyant d’essence clignote, vous pouvez apprécier la catégorie C0 du cerveau humain.

Les ordinateurs peuvent faire cela assez bien, comme en témoigne l’imminente révolution des véhicules sans conducteur.

Mais il est difficile d’appeler cela “conscience” dans un sens réel, ce qui nous amène à la catégorie suivante, C1.

“Elle fait référence à la relation entre un système cognitif et un objet de pensée spécifique, comme une représentation mentale de “la lumière du réservoir de carburant”, écrivent les chercheurs.

Dans la catégorie C1, cet objet de pensée est sélectionné pour un traitement global, ce qui le fait passer d’une relation étroite à une relation qui peut être manipulée dans divers contextes.

Le voyant clignotant du réservoir peut être modélisé dans C1 non seulement comme un problème unique, mais aussi comme un concept qui peut être évalué, classé par ordre de priorité et résolu – ou non – en fonction du temps.

La dernière catégorie, C2, est celle d’un superviseur qui regarde depuis la mezzanine, conscient des tâches à accomplir. Elle couvre ce que nous appelons la “métacognition”, c’est-à-dire le sentiment de savoir ce que nous savons.

C1 peut avoir lieu sans C2, et vice versa. Mais selon les chercheurs, aucun des deux systèmes n’a d’équivalent dans l’intelligence artificielle. Du moins, pas encore.

Les chercheurs supposent que C1 a évolué comme un moyen de briser la modularité des processus d’inconscience.

Les récentes avancées dans le domaine des micropuces capables à la fois de stocker et de traiter des informations comme les cellules du cerveau humain pourraient potentiellement jouer un tel rôle en révolutionnant la technologie modulaire existante.

Pour la mettre en œuvre, il faudrait en savoir plus sur la manière dont notre propre cerveau crée son propre espace de travail global – une architecture qui donne naissance à ce que nous considérons comme notre conscience.

Pour développer la technologie C2, les chercheurs suggèrent divers processus, dont certains appliquent les probabilités à la prise de décision, et d’autres font appel à une sorte de méta-mémoire pour établir une ligne de démarcation entre ce qui est connu et ce qui ne l’est pas.

Bien que le rapport ne fournisse pas de plan précis pour la prochaine génération d’IA, il soutient qu’il est tout à fait possible de construire des machines semblables à la conscience à partir de notre propre matériel mental.

Il semble que nous devions attendre un peu plus longtemps pour ces réplicants meurtriers.

Mais si l’on se fie à cette recherche, elles sont toujours en route.

Cette recherche a été publiée dans Science.