Parachat Nitzavim, Vayele'h
Bannière

Israël fait entendre les formes aux malvoyants

Aider les malvoyants à mieux percevoir leur environnement est un problème fondamental pour la vie de millions de personnes et auquel de nombreux scientifiques se sont intéressés.

Des chercheurs de l'Université hébraïque de Jérusalem ont récemment mis au point un dispositif innovant qui pourrait révolutionner la donne en permettant aux malvoyants de visualiser en détail ce qui les entoure... grâce à leurs oreilles.


Améliorer la vision de manière non invasive

Au CHPC (Center for Human Perception and Cognition) de l'Université hébraïque de Jérusalem, le professeur Amir Amedi et son équipe s'intéressent depuis une dizaine d'années à la conception et l'étude d'appareils sensoriels de substitution (SSD, pour Sensory Substitution Devices) permettant de manière non invasive à des malvoyants de percevoir leur environnement et d'interagir de manière complexe avec lui.

Le principe de leur dernier appareil, dénommé EyeMusic, est d'utiliser l'audition pour transmettre à la personne une description de son environnement proche.

Un algorithme est chargé de convertir le signal visuel correspondant à une image en un signal auditif où la fréquence des notes varie suivant l'emplacement, la forme et la couleur des objets environnants.

Ce procédé rappelle celui utilisé par certains aveugles arrivant à se déplacer en utilisant l'écho produit par un son émis à une certaine fréquence [2]. Ce procédé, appelé écho-localisation, est similaire aux ultrasons utilisés par les chauves-souris pour se repérer la nuit.

Le système imaginé par l'équipe de l'Université de Jérusalem adopte donc la même principe, tout en interfaçant un algorithme de traitement d'image qui permet de traduire sous forme sonore ce que ne peut capter un simple écho, et ainsi d'augmenter la perception du monde extérieur. Une nouvelle démonstration de la plasticité du cerveau

Les participants à l'étude imaginée par l'équipe du professeur Amedi ont reçu un entraînement de plusieurs semaines afin de leur permettre d'apprendre à décoder le signal sonore transmis par l'appareil.

La publication scientifique issue de cette recherche met en évidence la capacité d'apprentissage des participants, aboutissant à la fin de leur formation à la perception de formes complexes, comme l'expression d'un visage humain ou des objets de la vie quotidienne. Une expérience et un appareil similaire ont également permis aux participants de percevoir et distinguer les couleurs.

Tout au long de l'étude, l'équipe a pu étudier en détail grâce à l'utilisation de l'IRM les régions du cerveau activées lors de l'utilisation d'EyeMusic. Ils ont alors pu découvrir que, malgré leur cécité, les participants activaient une région du cerveau normalement dédiée à la vision active chez des personnes dotées de la vue.

Ils ont également pu démontrer que, quel que soit le sens utilisé, le touché pour le braille, l'audition pour EyeMusic ou la vue pour les livres classiques, la lecture activait chez tous les sujets la même région du cortex visuel.

Outre la nouvelle démonstration qu'elle fait de l'incroyable plasticité de notre cerveau, cette étude permet donc de remettre en cause le schéma classique d'un cortex divisé en différentes régions, chacune étant dédié à un sens particulier.

Ces dernières découvertes scientifiques semblent ainsi plutôt montrer que le cerveau est davantage structuré selon les tâches qu'il accomplit que les flux sensoriels qu'il reçoit.

Source: Bulletin-electronique