Les machines peuvent lire nos pensées :
Communiquer avec un ordinateur ou un robot par la pensée, n’est plus de la science fiction depuis une dizaine d’années, des expériences nous emmènent tout droit vers un futur où l’homme et la machine ne font qu’un. (AniMatrix)
La télépathie et la télékinésie quittent le domaine de la parapsychologie pour s’installer dans les laboratoires universitaires les plus sérieux. Par la seule force de la pensée, il est aujourd’hui possible de communiquer et d’agir sur son environnement. Le secret de ce nouveau pouvoir? Les «brain-computer interfaces (BCI)», qui permettent au cerveau de se faire comprendre par un ordinateur.
Ces recherches représentent un espoir très concret pour les personnes entièrement paralysées, qui pourront retrouver une mobilité perdue. A l’Idiap de Martigny et à l’EPFL, José del Rocio Millán développe une chaise roulante contrôlée par la pensée. Son équipe utilise une interface basée sur l’électroencéphalographie (EEG).
Pour commencer à interagir avec l’ordinateur, il suffit de se coiffer d’un bonnet contenant une trentaine d’électrodes, qui permettent d’enregistrer des signaux neuronaux de notre cerveau. Il s’agit d’une BCI «non-invasive».
Un état mental précis — comme par exemple imaginer un certain mouvement de la main gauche ou de la main droite — est associé aux différents déplacements de la chaise roulante: avancer ou s’arrêter, pivoter à gauche ou à droite. Il est également possible d’utiliser des tâches cognitives, comme par exemple faire des calculs mentaux, penser à des mots ou encore imaginer une personne.
«C’est un exercice similaire à la visualisation des mouvements effectuée par des sportifs d’élite, explique le chercheur. Dans mon cas, c’est la torsion des mains et la visualisation d’une rotation dans l’espace qui fonctionne le mieux.»
Lire dans l’esprit
Un algorithme analyse le signal chaotique provenant de l’EEG pour y reconnaître les différences subtiles existant entre un cerveau se concentrant sur un mouvement de la main et le même cerveau ne faisant rien en particulier. Une fois qu’il a reconnu une intention, il la transmet à la chaise roulante robotisée.
Les BCI nécessitent toujours un apprentissage mutuel, qui peut ici durer quelques jours. L’algorithme doit apprendre à reconnaître les signaux neuronaux de l’usager, car chacun génère son propre signal individuel. De son côté, l’homme doit réussir à émettre un signal le mieux reconnaissable pour l’ordinateur — en quelques sortes, à penser d’une manière plus claire. Cela se fait naturellement par feedback: il voit immédiatement le résultat de ses pensées.
«C’est comme faire du vélo, commente José del Millan. Au début, il faut se concentrer, mais après cela devient automatique.» L’usager peut d’ailleurs changer petit à petit de choix d’état mental, la chaise roulante évoluera avec lui.
La stratégie de José del Millan consiste à déléguer le plus possible à la chaise roulante pour éviter que l’utilisateur ne se fatigue trop vite, ce qui peut dégrader la lisibilité de son signal neuronal. Son équipe travaille sur une chaise roulante intelligente, qui analyse son environnement à l’aide de détecteurs de distance. Elle parvient à deviner l’intention de l’utilisateur et effectue ensuite elle-même le mouvement dans ses détails. Si l’usager s’approche d’une porte pour la franchir, elle s’en rend compte et exécute toute seule les ajustements nécessaires pour passer à travers sans heurts.
«Une division des tâches similaire a lieu dans le corps humain, par exemple dans la marche. Notre cerveau décide de la direction générale, mais c’est la moelle épinière qui gère les détails de la marche, à savoir l’équilibre et la coordination des muscles. Le cerveau peut faire d’autres choses en même temps, comme parler ou réfléchir.»
La chaise roulante intelligente remplace donc non seulement les jambes, mais aussi la moelle épinière.
L’utilisateur donne aussi un feedback inconscient à la machine. «Imaginez que la chaise roulante interprète mal le signal neuronal et tourne à droite alors que l’usager voulait aller tout droit. La frustration de se voir mal compris engendre alors un signal cérébral que l’algorithme sait discerner. La machine réalise qu’elle a commis une erreur. Elle en profite pour affiner son algorithme en intégrant cette donnée. De plus, elle s’arrête afin de laisser le temps à l’usager de se détendre et d’affiner sa pensée.»
Ces réactions qui nous trahissent
A l’EPFL, le Multimedia Signal Processing Group (MMSPG) du professeur Touradj Ebrahimi utilise également un électroencéphalogramme, mais poursuit une stratégie différente. C’est en faisant réagir le cerveau que l’ordinateur découvre les pensées de l’utilisateur. Devant ce dernier (coiffé de ses électrodes), quelques images clignotent sur un écran. Lorsque s’allume l’image choisie par l’usager, le cerveau génère un signal neuronal environ 300 millisecondes après l’illumination.
Ce «signal P300» révèle qu’une reconnaissance, automatique et subconsciente, a eu lieu. En repérant les signaux P300 au sein de l’EEG et en les comparant avec les instants où les images ont clignoté, l’algorithme arrive à deviner l’image choisie. Il est également possible d’utiliser des lettres de l’alphabet, ce qui permet d’épeler des mots — et donc de communiquer par la pensée.
Cette interface pourrait être utilisée un jour par des personnes totalement paralysées pour allumer une lampe ou ouvrir une fenêtre. Il y a deux ans, les chercheurs du MMSPG à l’EPFL ont collaboré avec la Fondation Plein Soleil à Lausanne pour travailler avec des patients paralysés par une sclérose en plaque.
«L’interface fonctionne mieux avec les malades car ils sont bien plus motivés que les étudiants qui testent nos expériences au laboratoire», rapporte le doctorant Ashkan Yazdani. Où en la collaboration? «La technologie n’est pas encore suffisamment mature, indique Touadj Ebrahimi. Il faudrait des personnes travaillant sur le design, entre la recherche et l’usager, pour développer un appareil plus pratique et facile à utiliser.»
L’avantage de ces BCI indirectes basées sur une réaction de l’usager (appelées «stimulus driven») est qu’elles sont plus rapidement utilisables. Dès la première séance, il est possible de se faire comprendre. Un apprentissage mutuel de l’homme et de la machine permet d’accélérer le processus de reconnaissance.
Intégrer un membre robotisé dans son esprit
Ces BCI «non-invasives» sont relativement légères. En revanche, elles souffrent des limitations de l’EEG, une technologie rapide mais peu précise, car le signal provient de plusieurs zones du cerveau.
Pour plus de finesse, il faut utiliser des électrodes implantées dans le cerveau. Encore plus impressionnantes, ces BCI invasives permettent aujourd’hui à des singes de contrôler par la pensée des bras robotisés — et même à les utiliser pour se nourrir.
«Nous avons commencé notre recherche en 1999 avec des rats, indique Miguel Nicolelis, directeur du Center for Neuroengineering au Centre médical de l’Université de Duke et professeur adjoint à l’EPFL. A la surface de leur cortex, nous avons implanté une vingtaine d’électrodes. Le signal électrique est ensuite filtré et relié à un mécanisme donnant de l’eau au rat. Au bout de quelques semaines, les rats arrivent à contrôler leurs neurones pour générer le bon signal.»
En 2003, l’équipe de Nicolelis installe chez des singes 96 électrodes dans une zone du cortex active lors du mouvement de la main. Au début, l’animal apprend à bouger un curseur sur un écran à l’aide d’un joystick: il reçoit de la nourriture chaque fois qu’il atteint la cible. Au même moment, un algorithme apprend à interpréter le signal neuronal en le comparant aux mouvements du pointeur.
Dans une deuxième phase, les chercheurs alternent le contrôle du curseur: il est dirigé parfois par le joystick, parfois par le signal neuronal du singe. Ce dernier n’en sait bien évidemment rien et continue à bouger sa main — sans savoir que c’est quelquefois son cerveau qui est directement aux commandes. Motivé par la récompense, il apprend à affiner sa pensée, inconsciemment. Les chercheurs finissent par débrancher le joystick.
Après une dizaine de jours, le singe se rend compte qu’il est inutile de bouger sa main et qu’il commande le pointeur entièrement par la pensée.
Les chercheurs ont ensuite adapté ce système pour y intégrer le mouvement en trois dimensions d’un bras robotisé, que les singes apprennent à maîtriser pour amener de la nourriture à leur bouche. «Il s’agit vraiment d’un membre artificiel, que les singes ont intégré dans leur cerveau», avance Nicolelis.
Dans une expérience récente, les singes ont contrôlé via internet des jambes robotisées situées au Japon. Les singes commencent d’abord à marcher sur un tapis roulant, et finissent par contrôler le robot uniquement par la pensée à l’aide d’un feedback visuel. Si le robot n’a pas encore la complexité suffisante pour assurer son équilibre, il démontre les progrès accomplis par la BCI invasive: un simple interrupteur en 1999, un curseur en deux dimensions et déjà un bras robotisé à sept axes en 2003 et, pour finir, une paire de jambes à 21 paramètres en 2008.
«Nous avons voulu également démontrer qu’un membre robotique, même au Japon, peut-être plus rapide qu’un membre normal. L’information électronique se propage presqu’à la vitesse de la lumière — bien plus rapidement qu’un signal neuronal!»
Du singe, Nicolelis espère passer à l’homme, pour permettre à des quadriplégiques de pouvoir marcher à nouveau un jour grâce à des jambes robotisées. Il vient de lancer une collaboration internationale à laquelle l’EPFL participe: le «Walk Again Project».
«Nos premiers tests avec des humains devraient commencer d’ici la fin de l’année. Les électrodes ne resteront que trente jours, nous préférons ne prendre aucun risque. Il est vrai qu’elles créent une réaction inflammatoire locale au niveau des neurones, mais nos singes ont vécu sans problème pendant plus de sept ans avec des électrodes.»
Vers l’homme-machine
Des êtres humains vivent déjà avec des BCI invasives. Depuis 2004, Erik Ramsey essaie de retrouver la parole, grâce à un synthétiseur vocal relié à des électrodes situées dans zone active lorsqu’il forme des sons par la pensée. Malgré sa paralyse complète («locked-in syndrome»), il a récemment réussi à former des voyelles.
Les premiers cyborgs sont probablement nés en 1999, lorsque Philip Kennedy et Roy Bakay de l’Université d’Emory près d’Atlanta implantent les premières BCI invasives dans deux patients paralysés. La première mourut après quelques mois suite à l’évolution de sa maladie, une sclérose latérale amyotrophique. Mais pendant quatre ans Johnny Ray, le second patient, put communiquer sommairement en commandant un curseur par la force de sa pensée.
Nicolelis se penche déjà sur la communication en sens inverse — de la machine vers le cerveau. L’espoir est que ce dernier puisse reconnaître un signal neuronal généré par un ordinateur via des électrodes implantées dans le cortex.
Un tel système permettrait d’inclure dans la BCI un feedback neuronal sur ce que «ressent» le bras robotisé. Les chercheurs ont commencé par un simple switch gauche/droite. «Le singe arrive déjà à différencier entre deux signaux électriques différents, qui lui indiquent si la nourriture est cachée à gauche ou à droite.» On est certes encore loin de la complexité sensorielle d’un vrai organe comme un œil ou une main, mais les progrès dans ce domaine sont très rapides.
Le cerveau reste l’un des plus grands mystères de la science. Nous commençons à peine à comprendre comment fonctionne l’intelligence humaine, qui émerge du travail de cent milliards de neurones connectés par un million de milliards de synapses. Malgré cela, l’homme a réussi à fabriquer des machines qui, elles, sont capables de comprendre ce que veut notre cerveau. Il paraît incroyable qu’un simple EEG suffise à interpréter des intensions humaines.
«Quand nous avons conçu notre premier prototype, j’ai dû moi-même faire nos expériences pour y croire», confie Touradj Ebrahimi. Que le mouvement complexe d’un bras puisse être transmis par une centaine d’électrodes est extraordinaire. Ces prouesses démontrent les facultés d’apprentissage extraordinaires autant du cerveau humain que des algorithmes développés par les scientifiques.
Le facteur déterminant de ces avancées est la forme que prend le signal neuronal pour se propager dans le cerveau: des impulsions électriques, qui peuvent être connectées à des instruments électriques.
La nature nous a ainsi offert la possibilité de relier les intelligences humaines et artificielles. Sans aucun doute, nous sommes déjà entrés dans l’ère des hommes-machines.
——-
Des pensées dévoilées
Sur ma tête, le chercheur Ashkan Yazdani du Multimedia Signal Processing Group (MMSPG) de l’EPFL place d’abord une sorte de bonnet de bain. Dans chacun de ses 32 trous, il fixe patiemment des électrodes pour lire le signal électroencéphalographique (EEG) de mon cerveau. Il les enduit d’abord de gel pour augmenter la conductivité électrique.
«C’est l’un des aspects qu’il faudrait améliorer pour toucher un plus grand public, note le jeune doctorant. Pour l’instant, c’est trop contraignant. D’autres groupes développent des électrodes sèches ou fonctionnant sans fil. Mais elles sont très chères.» Au fait, pas besoin de se raser le crâne: les cheveux exigent simplement un peu plus de gel.
Face à un écran d’ordinateur, je pense à l’une des six images affichées devant moi: une télévision, une lampe, un téléphone… Les images s’illuminent à tour de rôle, chacune six fois. Après huit secondes, l’ordinateur indique le téléphone. Il a deviné juste.
Le truc? Il a repéré dans mon EEG les «signaux P300», qui trahissent une reconnaissance inconsciente lorsque c’est l’image du téléphone qui a clignoté.
Cela fait tout juste dix minutes que nous avons fait connaissance, et déjà, nous communiquons par la pensée. C’est de la télépathie, non pas entre humains, mais entre un homme et une machine.
Ashkan Yazdani abaisse le taux de répétition à quatre, mais l’ordinateur commence à commettre des erreurs. Signe de capacités mentales insuffisantes? «C’est normal, nous utilisons ici un algorithme de classification générique; il n’est dont pas optimal. Mais on pourrait obtenir des taux de 99% de réussite dès deux répétitions. Il suffirait d’entraîner l’ordinateur à reconnaître vos signaux personnels. Cela pourrait se faire en deux séances d’une demi-heure». Me voilà rassuré.
——-
Une version de cet article est parue dans le magazine scientifique Reflex.
Voilà, le futur nous rattrape et il est pire que le film de science fiction 1984...
.....
.